Archives par étiquette : paradoxe

Éléments d’un contextualisme dialectique

Éléments d’un contextualisme dialectique

Paul Franceschi

Université de Corse

Paul Franceschi

Fontaine du Salario

Lieu-dit Morone

20000 Ajaccio

France

RÉSUMÉ Dans ce qui suit, je m’attache à présenter les éléments d’une doctrine philosophique, qui peut être définie comme un contextualisme dialectique. Je m’efforce tout d’abord d’en définir les éléments constitutifs, à travers les dualités et pôles duaux, le principe d’indifférence dialectique et le biais d’uni-polarisation. Je m’attache ensuite à souligner l’intérêt spécifique de cette doctrine au sein d’un domaine particulier de la méta-philosophie : la méthodologie utilisée pour la résolution des paradoxes philosophiques. Je décris enfin des applications de cette dernière à l’analyse des paradoxes suivants : le paradoxe de Hempel, le paradoxe de l’examen-surprise et l’argument de l’Apocalypse.

ABSTRACT In what follows, I strive to present the elements of a philosophical doctrine, which can be defined as dialectical contextualism. I proceed first to define its basic elements, namely, dualities and polar contraries, the principle of dialectical indifference and the one-sidedness bias. I emphasize then the special importance of this doctrine in a specific field of meta-philosophy : the methodology for solving philosophical paradoxes. Finally, I describe several applications of this methodology on the analysis of the following paradoxes : Hempel’s paradox, the surprise examination paradox and the Doomsday Argument.


Éléments d’un contextualisme dialectique

Paul FRANCESCHI

Dans ce qui suit, je m’attacherai à présenter les éléments d’une doctrine philosophique spécifique, qui peut être définie comme un contextualisme dialectique. Je m’efforcerai tout d’abord de préciser les éléments essentiels qui fondent cette doctrine, en particulier les dualités et pôles duaux, le principe d’indifférence dialectique et le biais d’uni-polarisation. Je m’attacherai ensuite à en décrire l’intérêt au niveau méta-philosophique, en particulier en tant que méthodologie pour aider à la résolution des paradoxes philosophiques. Je décrirai enfin des applications de cette méthodologie à l’analyse des paradoxes philosophiques suivants : le paradoxe de Hempel, le paradoxe de l’examen-surprise et l’argument de l’Apocalypse.

Le contextualisme dialectique décrit ici est fondé sur un certain nombre d’éléments constitutifs qui présentent une nature spécifique. Au nombre de ces derniers figurent : les dualités et pôles duaux, le principe d’indifférence dialectique et le sophisme d’uni-polarisation. Il convient de les analyser tour à tour.

1. Dualités et pôles duaux

Je m’attacherai tout d’abord à définir la notion de pôles duaux (polar opposites)1. Bien qu’intuitive, une telle notion nécessite d’être décrite de manière plus précise. Des exemples de pôles duaux sont ainsi statique/dynamique, interne/externe, qualitatif/quantitatif, etc. Nous pouvons définir les pôles duaux comme des concepts (que nous pouvons dénommer A et Ā) qui se présentent par paires, et qui sont tels que chacun d’eux est défini comme le contraire de l’autre. Par exemple, interne peut être défini comme le contraire d’externe, et de manière symétrique, externe est défini comme le contraire d’interne. En un certain sens, il n’y a pas de notion primitive ici et aucun des deux pôles duaux A et Ā ne peut être considéré comme une telle notion primitive. Considérons tout d’abord une dualité donnée, que nous pouvons dénoter par A/Ā, où A et Ā constituent des concepts duaux. Une telle dualité est représentée sur la figure ci-dessous :

Figure 1. Les pôles duaux A et Ā

À ce stade, nous pouvons donner également une énumération2 (qui présente nécessairement un caractère partiel) des dualités :

Interne/Externe, Quantitatif/Qualitatif, Visible/Invisible, Absolu/Relatif, Abstrait/Concret, Statique/Dynamique, Diachronique/Synchronique, Unique/Multiple, Extension/Restriction, Esthétique/Pratique, Précis/Vague, Fini/Infini, Simple/Composé, Individuel/Collectif, Analytique/Synthétique, Implicite/Explicite, Volontaire/Involontaire

Afin de caractériser les pôles duaux avec davantage de précision, il convient de s’attacher à les distinguer par rapport à d’autres concepts. Nous présenterons ainsi plusieurs propriétés des pôles duaux, qui permettent de les différencier d’autres concepts voisins. Les pôles duaux sont ainsi des concepts neutres, de même que des qualités simples ; en outre, ils se distinguent des notions vagues. En premier lieu, deux pôles duaux A et Ā constituent des concepts neutres. Ils peuvent ainsi être dénotés par A0 et Ā0. Nous pouvons ainsi les représenter de la manière suivante :

Figure 2. Les pôles duaux neutres A0 et Ā0

Les pôles duaux constituent des concepts neutres, c’est-à-dire des concepts qui ne présentent aucune nuance méliorative ou péjorative. En ce sens, externe, interne, concret, abstrait, etc., constituent des pôles duaux, à la différence de concepts tels que beau, laid, courageux, qui présentent une nuance soit méliorative soit péjorative, et qui sont donc non-neutres. Le fait que les pôles duaux soient neutres possède son importance, car cela permet de les distinguer de concepts qui possèdent une connotation positive ou négative. Ainsi, la paire de concepts beau/laid ne constitue pas une dualité et beau et laid ne sont donc pas des pôles duaux au sens de la présente construction. En effet, beau possède une connotation positive et laid présente une nuance péjorative. Dans ce contexte, nous pouvons les dénoter par beau+ et laid.

Il convient de souligner, en second lieu, que les deux pôles duaux d’une même dualité correspondent à des qualités simples, par opposition aux qualités composées. La distinction entre qualités simples et composées peut être effectuée de la manière suivante. Soient A1 et A2 des qualités simples. Dans ce cas, A1 ˄ A2, de même que A1 ˅ A2 sont des qualités composées. Pour prendre un exemple, statique, qualitatif, externe sont des qualités simples, alors que statique et qualitatif, statique et externe, qualitatif ou externe, sont des qualités composées. Une définition plus générale est ainsi la suivante : soient B1 et B2 des qualités simples ou composées, dans ce cas B1 ˄ B2, de même que B1 ˅ B2 sont des qualités composées. De manière incidente, ceci met également en évidence pourquoi les paires de concepts rouge/non-rouge, bleu/non-bleu ne peuvent pas être considérés comme des pôles duaux. En effet, non-rouge peut ainsi être défini en tant que qualité composée de la manière suivante : violet ˅ indigo ˅ bleu ˅ vert ˅ jaune ˅orange ˅ blanc ˅ noir. Dans ce contexte, on peut assimiler non-bleu à la négation-complément de bleu, une telle négation-complément étant définie à l’aide de qualités composées.

Compte tenu de la définition précédente, nous sommes également en mesure de distinguer les pôles duaux des objets vagues. Nous pouvons observer tout d’abord que les pôles duaux et les objets vagues possèdent en commun certaines propriétés. En effet, les objets vagues se présentent par paires, de la même manière que les pôles duaux. De plus, les concepts vagues sont considérés classiquement comme possédant une extension et une anti-extension, qui sont mutuellement exclusives. Une telle caractéristique est également partagée par les pôles duaux. À titre d’exemple, qualitatif et quantitatif s’assimilent à une extension et à une anti-extension, qui présentent la propriété d’être mutuellement exclusives ; il en va de même pour statique et dynamique, etc.

Cependant, il convient de souligner les différences existant entre les deux catégories de concepts. Une première différence (a) réside ainsi dans le fait que l’union de l’extension et l’anti-extension des concepts vagues n’est pas exhaustive, en ce sens qu’elles admettent des cas-limites (et aussi des cas-limites de cas-limites, etc. donnant ainsi naissance à une hiérarchie du vague d’ordre n), qui constitue une zone de pénombre. À l’inverse, les pôles duaux ne possèdent pas nécessairement une telle caractéristique. En effet, l’union des pôles duaux peut être soit exhaustive, soit non-exhaustive. Par exemple, la dualité abstrait/concret est, de manière intuitive, exhaustive, car il ne semble pas exister d’objets qui ne sont ni abstraits ni concrets. Il en va de même pour la dualité vague/précis : intuitivement, il n’existe pas en effet d’objets qui ne sont ni vagues ni précis, et qui appartiendraient à une catégorie intermédiaire. Ainsi, à la différence des objets vagues, il existe des pôles duaux dont l’extension et l’anti-extension se révèle exhaustive.

Il convient de mentionner, en second lieu, une autre différence (b) entre les pôles duaux et les objets vagues. En effet, les pôles duaux constituent des qualités simples, alors que les objets vagues peuvent consister en des qualités simples ou composées. Il existe en effet des concepts dénommés objets vagues multi-dimensionnels, tels que la notion de véhicule, de machine, etc. Enfin, une dernière différence entre les deux catégories d’objets (c) réside dans le fait que certains pôles duaux présentent une nature intrinsèquement précise. Tel est notamment le cas de la dualité individuel/collectif, qui est susceptible de donner lieu à une définition tout à fait précise.

2. Le principe d’indifférence dialectique

À partir des notions de dualité et de pôles duaux qui viennent d’être définis, nous sommes en mesure de définir également une notion de point de vue, relatif à une dualité ou un pôle dual donné. Ainsi, nous avons tout d’abord la notion de point de vue correspondant à une dualité donnée A/Ā : ceci correspond par exemple au point de vue de la dualité extension/restriction, celui de la dualité qualitatif/quantitatif, ou de la dualité diachronique/synchronique, etc. Il en résulte également la notion de point de vue relatif à un pôle donné d’une dualité A/Ā. Ainsi, on a par exemple le point de vue par extension (au niveau de la dualité extension/restriction), de même que le point de vue par restriction. De même, il en résulte le point de vue ou angle de vue qualitatif, ainsi que le point de vue ou angle de vue quantitatif, etc. (au niveau de la dualité qualitatif/quantitatif). Ainsi, lorsqu’on considère un objet donné o (que ce soit un objet concret ou bien un objet abstrait telle que par exemple une proposition ou un raisonnement), on est susceptible d’envisager ce dernier par rapport à différentes dualités, et au niveau de ces dernières, par rapport à chacun de ses deux pôles duaux.

L’idée sous-jacente inhérente aux points de vue relatifs à une dualité donnée, ou à un pôle donné d’une dualité, est que chacun des deux pôles d’une même dualité, toutes choses étant par ailleurs égales, possède une égale légitimité. En ce sens, si on considère un objet o du point de vue d’une dualité A/Ā, il convient de ne pas privilégier l’un des pôles par rapport à l’autre. Afin d’obtenir un point de vue objectif par rapport à une dualité A/Ā, il convient de se placer tout à tour du point de vue du pôle A, puis de celui du pôle Ā. Car une approche qui n’aborderait que le point de vue de l’un des deux pôles se révélerait partielle et tronquée. Le fait de considérer tour à tour le point de vue des deux pôles, lors de l’étude d’un objet o et de la classe de référence qui lui est associée, permet d’éviter une démarche subjective et de satisfaire, autant que possible, les besoins de l’objectivité.

On le voit, l’idée qui sous-tend la notion de point de vue peut être formalisée en un principe d’indifférence dialectique, de la manière suivante :

(PRINCIPE D’INDIFFERENCE DIALECTIQUE)Lorsqu’on considère un objet donné o et la classe de référence E qui lui est associée, sous l’angle de la dualité A/Ā, toutes choses étant par ailleurs égales, il convient d’accorder une égale importance au point de vue du pôle A et au point de vue du pôle Ā.

Ce principe est formulé en termes de principe d’indifférence : si l’on considère un objet o sous l’angle d’une dualité A/Ā, il n’y a pas lieu de privilégier le point de vue A par rapport au point de vue Ā, et sauf élément contraire résultant du contexte, on doit placer à égalité les points de vue A et Ā. Une conséquence directe de ce principe est que si l’on considère le point de vue du pôle A, il est nécessaire de prendre également en considération le point de vue du pôle opposé Ā (et réciproquement). La nécessité de prendre en considération les deux points de vue, celui résultant du pôle A et celui associé au pôle Ā, répond au souci d’analyser l’objet o et la classe de référence qui lui est associée d’un point de vue objectif. Cette objectivité est atteinte, autant que faire se peut, par la prise en considération des points de vue complémentaires qui sont ceux des pôles A et Ā. Chacun de ces points de vue possède en effet, eu égard à la dualité A/Ā, un droit égal à la pertinence. Dans de telles circonstances, lorsque seul le pôle A ou (exclusivement) le pôle Ā est pris en considération, il s’agit alors d’un point de vue que l’on peut appeler uni-polarisé. À l’inverse, le point de vue qui réalise la synthèse des points de vue correspondants aux pôles A et Ā, est par nature bi-polarisé. Fondamentalement, une telle démarche se révèle d’essence dialectique. En effet, l’étape d’analyse successive des points de vue complémentaires par rapport à une classe de référence donnée, est destinée à permettre, dans une étape ultérieure, une synthèse finale, qui résulte de la prise en compte conjointe des points de vue correspondant à la fois aux pôles A et Ā. Dans la présente construction, le processus de confrontation des différents points de vue pertinents par rapport à une dualité A/Ā est destiné à construire, cumulativement, un point de vue plus objectif et exhaustif que celui, uni-polarisé et nécessairement partiel, qui résulte de la prise en compte des données qui résultent d’un seul des deux pôles.

La définition du principe d’indifférence dialectique qui est proposée ici se réfère à une classe de référence E, qui se trouve associée à l’objet o. La classe de référence3 est constituée par un ensemble de phénomènes ou d’objets. Plusieurs exemples peuvent en être donnés : la classe des êtres humains ayant un jour existé, la classe des événements futurs de la vie d’une personne, la classe des parties du corps d’une personne, la classe des corbeaux, etc. Nous examinerons, dans ce qui suit, un certain nombre d’exemples. La mention d’une telle classe de référence possède son importance, car sa définition-même se trouve associée à la dualité A/Ā précitée. En effet, la classe de référence peut être définie du point de vue de A ou bien du point de vue de Ā. Une telle particularité nécessite d’être soulignée et nous sera utile lors de la définition du biais qui se trouve associé à la définition-même du principe d’indifférence dialectique : le biais d’uni-polarisation.

3. Caractérisation du biais d’uni-polarisation

La formulation précédente du principe d’indifférence dialectique suggère, de manière directe, une erreur de raisonnement d’un certain type. De manière informelle, une telle erreur de raisonnement consiste à privilégier un point de vue lorsqu’on s’intéresse à un objet donné, et à négliger le point de vue opposé. De manière plus formelle, dans le contexte qui vient d’être décrit, une telle erreur de raisonnement consiste, lorsqu’on considère un objet o et la classe de référence qui lui est associée, à ne prendre en considération que le point de vue du pôle A (respectivement Ā), en occultant complètement le point de vue du pôle dual Ā (respectivement A) pour définir cette classe de référence. Nous dénommerons biais d’uni-polarisation un tel type d’erreur de raisonnement. Les conditions de ce type de biais, en violation du principe d’indifférence dialectique, méritent toutefois d’être précisées. En effet, dans le présent contexte, on peut considérer qu’il existe certains cas, où la bi-polarisation par rapport à une dualité donnée A/Ā n’est pas requise. Tel est le cas lorsque les éléments du contexte ne présupposent pas des conditions d’objectivité et d’exhaustivité des points de vue. Ainsi, un avocat qui ne ferait valoir que les éléments à la décharge de son client, en ignorant complètement les éléments à charge, ne commettrait pas le type d’erreur de raisonnement précité. Dans une telle circonstance en effet, l’avocat ne commettrait pas un biais d’uni-polarisation dommageable, puisqu’il s’agit de la fonction qui lui est propre. Il en irait de même dans un procès pour le procureur qui, à l’inverse, mettrait uniquement l’accent sur les éléments à charge de la même personne, en ignorant complètement les éléments à décharge. Dans une telle situation également, le biais d’uni-polarisation en résultant ne serait pas inapproprié, car il résulte bien des éléments du contexte qu’il s’agit bien du rôle exact mais limité qui est assigné au procureur. En revanche, un juge qui ne prendrait en compte que les éléments à charge de l’accusé, ou bien qui commettrait l’erreur inverse, de ne considérer que les éléments à décharge de ce dernier, commettrait bien un biais d’uni-polarisation inapproprié, car le rôle-même du juge implique qu’il prenne en considération les deux catégories d’éléments et que son jugement provienne de la synthèse qui en résulte.

En outre, ainsi que nous l’avons évoqué plus haut, la mention d’une classe de référence associée à l’objet o se révèle importante. En effet, ainsi que nous aurons l’occasion de le constater avec l’analyse des exemples qui suivent, sa définition-même se trouve associée à une dualité A/Ā. Et la classe de référence peut être définie soit du point de vue de A, soit du point de vue de Ā. Une telle particularité a pour conséquence que tous les objets ne sont pas susceptibles de donner lieu à un biais d’uni-polarisation. En particulier, les objets auxquels ne sont pas associés une classe de référence qui est elle-même susceptible d’être envisagée sous l’angle d’une dualité A/Ā, ne donnent pas lieu à un tel biais d’uni-polarisation.

Avant d’illustrer la présente construction à l’aide de plusieurs exemples concrets, il apparaît utile à ce stade, de considérer le biais d’uni-polarisation qui vient d’être défini, et qui résulte de la définition-même du principe d’indifférence dialectique, à la lumière de plusieurs notions similaires. De manière préliminaire, nous pouvons observer qu’une description générale de ce type d’erreur de raisonnement avait déjà été formulée, en des termes voisins, par John Stuart Mill (On Liberty, II) :

He who knows only his own side of the case, knows little of that. His reasons may be good, and no one may have been able to refute them. But if he is equally unable to refute the reasons on the opposite side ; if he does not so much know what they are, he has no ground for preferring either opinion.

Dans la littérature récente, une notion très voisine a également été décrite. Il s’agit en particulier du biais dialectique défini notamment par Douglas Walton (1997, 1999). Walton (1999, pp. 76-77) se place ainsi dans le cadre la théorie dialectique des biais, qui oppose les arguments uni-polarisés aux arguments bi-polarisés :

The dialectical theory of bias is based on the idea […] that an argument has two sides. […] A one-sided argument continually engages in pro-argumentation for the position supported and continually rejects the arguments of the opposed side in a dialogue. A two-sided (balanced) argument considers all arguments on both sides of a dialogue. A balanced argument weights each argument against the arguments that have been opposed to it.

Walton décrit ainsi le biais dialectique (dialectical bias) comme un point de vue uni-polarisé qui survient au cours de l’argumentation. Le biais dans le raisonnement consiste ainsi à ne prendre en compte qu’un point de vue concernant l’argument en question, alors même que l’autre point de vue pourrait se révéler décisif quant à la conclusion à en tirer. Le raisonnement correspondant se trouve biaisé, en ce sens qu’il ne présente qu’un aspect des éléments qui justifient un jugement ou un point de vue donné, en occultant complètement l’autre aspect des éléments pertinents relatifs à ce même argument.

Walton souligne aussi que le biais dialectique, qui est très répandu dans l’argumentation humaine, ne constitue pas nécessairement une erreur de raisonnement. Suivant en cela la distinction entre «bon» et «mauvais» biais due à Antony Blair (1988), Walton considère que le biais dialectique est incorrect seulement dans certaines conditions, et en particulier s’il survient dans un contexte qui est supposé être équilibré, c’est-à-dire où les deux facettes du raisonnement correspondant sont censées être mentionnées (p. 81) :

Bad bias can be defined as “pure (one-sided) advocacy” in a situation where such unbalanced advocacy is normatively inappropriate in argumentation.

En outre, ainsi que nous aurons de le constater au moyen d’un exemple, le biais d’uni-polarisation pêche par le fait qu’un certain nombre de prémisses sont omises dans le raisonnement correspondant. Ce point est essentiel, car lorsque ces prémisses manquantes sont replacées au sein de l’argument, la conclusion qui en résulte n’est plus valide, et une conclusion radicalement différente prévaut alors.

4. Instance du biais d’uni-polarisation

Afin d’illustrer les notions précédentes, il s’avère intéressant, à ce stade, de donner un exemple du biais d’uni-polarisation. À cette fin, considérons l’instance suivante, qui consiste en une forme de raisonnement, mentionnée par Philippe Boulanger (2000, p. 3)4, qui l’attribue au mathématicien Stanislas Ulam. Le biais d’uni-polarisation s’y manifeste sous une forme déductive. Ulam estime ainsi que si une entreprise devait atteindre un niveau de main d’oeuvre suffisamment important, son niveau de performance serait paralysé par le grand nombre de conflits internes qui en résulteraient. Ulam estime ainsi que le nombre de conflits entre personnes augmenterait selon le carré du nombre n d’employés, alors que l’impact sur le travail qui en résulterait ne progresserait qu’en fonction de n. Ainsi, selon cet argument, il n’est pas souhaitable que le nombre d’employés au sein d’une entreprise devienne important. Cependant, il s’avère que le raisonnement d’Ulam est fallacieux, comme le souligne Boulanger, car il met exclusivement l’accent sur les relations conflictuelles entre employés. Or les n2 relations parmi les employés de l’entreprise peuvent être de nature conflictuelle, mais peuvent consister aussi bien en relations de collaboration tout à fait bénéfiques pour l’entreprise. Il n’y a donc pas de raison de privilégier les relations conflictuelles par rapport aux relations de collaboration. Et lorsque parmi les n2 relations qui s’établissent entre les employés de l’entreprise, certaines sont d’authentiques relations de collaboration, cela a pour effet, au contraire, d’améliorer la performance de l’entreprise. Par conséquent, on ne peut pas conclure légitimement qu’il n’est pas souhaitable que l’effectif d’une entreprise atteigne une taille importante.

Dans un souci de clarté, il s’avère utile de formaliser quelque peu le raisonnement précédent. Il apparaît ainsi que le raisonnement d’Ulam peut être présenté de la manière suivante :

(D1Ā) si <une entreprise présente un nombre important d’employés>

(D2Ā) alors <il en résultera n2 relations conflictuelles>

(D3Ā) alors des effets négatifs en résulteront

(D4Ā)  le fait qu’ <une entreprise ait un nombre important d’employés> est mauvais

Ce type de raisonnement présente la structure d’un biais d’uni-polarisation, car il met uniquement l’accent sur les relations conflictuelles (qui concernent le pôle de dissociation de la dualité association/dissociation), en passant sous silence un argument parallèle présentant la même structure qui pourrait être légitimement soulevé, mettant l’accent sur les relations de collaboration (associées au pôle d’association), qui constituent l’autre aspect pertinent sur ce sujet particulier. Cet argument parallèle est le suivant :

(D1A) si <une entreprise présente un nombre important d’employés>

(D2A) alors <il en résultera n2 relations de collaboration>

(D3A) alors des effets positifs en résulteront

(D4A)  le fait qu’ <une entreprise ait un nombre important d’employés> est bon

Ceci met finalement en lumière comment les deux formulations de l’argument conduisent à des conclusions contradictoires, c’est-à-dire (D4Ā) et (D4A). À ce stade, il est utile de souligner la structure-même de la conclusion du raisonnement ci-dessus, qui est la suivante :

(D5Ā) la situation s est mauvaise du point de vue Ā (dissociation)

alors que la conclusion du raisonnement parallèle est la suivante :

(D5A) la situation s est bonne du point de vue A (association)

Mais si le raisonnement avait été complet, en prenant en compte les deux points de vue, une autre conclusion en aurait résulté :

(D5Ā) la situation s est mauvaise du point de vue Ā (dissociation)

(D5A) la situation s est bonne du point de vue A (association)

(D6A/Ā) la situation s est mauvaise du point de vue Ā (dissociation) et bonne du point de vue A (association)

(D7A/Ā)  la situation s est neutre du point de vue de la dualité A/Ā (association/dissociation)

Et une telle conclusion s’avère tout à fait différente de celle qui résulte de (D5Ā) et de (D5A).

Finalement, nous sommes en mesure de caractériser le biais d’uni-polarisation qui vient d’être décrit dans le cadre du présent modèle : l’objet o est le raisonnement précité, la classe de référence est celle des relations existant entre les employés d’une entreprise, et la dualité correspondante — permettant de définir la classe de référence — est la dualité dissociation/association.

5. Analyse dichotomique et méta-philosophie

Le principe d’indifférence dialectique précité et son corollaire — le biais d’uni-polarisation — est susceptible de trouver des applications dans plusieurs domaines5. Nous nous intéresserons, dans ce qui suit, à ses applications à un niveau méta-philosophique, à travers l’analyse de plusieurs paradoxes philosophiques contemporains. La méta-philosophie constitue cette branche de la philosophie dont l’objet est l’étude de la nature de la philosophie, de sa finalité et de ses méthodes propres. Dans ce contexte, un domaine spécifique au sein de la méta-philosophie est celui de la méthode à employer pour s’attacher à résoudre, ou à progresser vers la résolution des paradoxes ou des problèmes philosophiques. C’est dans ce domaine spécifique que s’inscrit la présente construction, en ce sens qu’elle propose l’analyse dichotomique comme un outil qui peut se révéler utile pour aider à la résolution de paradoxes ou de problèmes philosophiques.

L’analyse dichotomique, en tant que méthodologie pouvant être utilisée pour la recherche de solutions à certains paradoxes ou problèmes philosophiques, résulte directement de l’énoncé-même du principe d’indifférence dialectique. L’idée générale qui sous-tend la démarche dichotomique d’analyse des paradoxes, est que deux versions, correspondant à l’un et l’autre pôle d’une dualité donnée, peuvent se trouver mêlées dans un paradoxe philosophique. La démarche consiste alors à trouver une classe de référence associée au paradoxe en question et la dualité A/Ā correspondante, ainsi que les deux variations du paradoxe qui en résultent et qui s’appliquent à chacun des pôles de cette dualité. Cependant, toute dualité ne convient pas pour cela, car pour nombre de dualités, la version correspondante du paradoxe demeure par essence inchangée, quel que soit le pôle que l’on envisage. Dans la méthode dichotomique, il s’agit de s’attacher à trouver une classe de référence et une dualité associée pertinente, telle que le point de vue de chacun de ses pôles conduise effectivement à deux versions structurellement différentes du paradoxe, ou bien à la disparition du paradoxe selon le point de vue de l’un des pôles. Ainsi, lorsque l’on envisage le paradoxe sous l’angle des deux pôles A et Ā, et que cela n’a aucune incidence concernant le paradoxe lui-même, la dualité A/Ā correspondante ne se révèle donc pas, de ce point de vue, pertinente.

L’analyse dichotomique ne constitue pas un outil qui prétend résoudre tous les problèmes philosophiques, loin s’en faut, mais seulement une méthodologie qui est susceptible d’apporter un éclairage pour certains d’entre eux. Dans ce qui suit, nous nous attacherons à illustrer, à travers plusieurs travaux de l’auteur, comment l’analyse dichotomique peut s’appliquer pour progresser vers la résolution de trois paradoxes philosophiques contemporains : le paradoxe de Hempel, le paradoxe de l’examen-surprise et l’argument de l’Apocalypse.

De manière préliminaire, on peut observer ici que dans la littérature, on trouve également un exemple d’analyse dichotomique de paradoxe chez David Chalmers (2002). Chalmers s’attache ainsi à montrer comment le paradoxe des deux enveloppes comporte deux versions fondamentalement distinctes, dont l’une correspond à une version finie du paradoxe et l’autre à une version infinie. Une telle analyse, bien que conçue indépendamment de la présente construction, peut ainsi être caractérisée comme une analyse dichotomique fondée sur la dualité fini/infini.

Figure 3. Pôles duaux dans l’analyse de David Chalmers du paradoxe des deux enveloppes

6. Application à l’analyse des paradoxes philosophiques

À ce stade, il convient d’appliquer ce qui précède à l’analyse de problèmes concrets. Nous nous efforcerons ainsi d’illustrer cela à travers l’analyse de plusieurs paradoxes philosophiques contemporains : le paradoxe de Hempel, le paradoxe de l’examen-surprise et l’argument de l’Apocalypse. Nous nous attacherons à montrer comment un problème de biais d’uni-polarisation associé à un problème de définition d’une classe de référence se rencontre dans l’analyse des paradoxes philosophiques précités. En outre, nous montrerons comment la définition-même de la classe de référence associée à chaque paradoxe est susceptible d’être qualifiée à l’aide des pôles duaux A et Ā d’une dualité A/Ā tels qu’ils viennent d’être définis.

6.1. Application à l’analyse du paradoxe de Hempel

Le paradoxe de Hempel est basé sur le fait que les deux assertions suivantes :

(H) Tous les corbeaux sont noirs

(H*) Tout ce qui est non-noir est un non-corbeau

sont logiquement équivalentes. Par sa structure, (H*) se présente en effet comme la forme contraposée de (H). Il en résulte que la découverte d’un corbeau noir confirme (H) et également (H*), mais aussi que la découverte d’une chose non-noire qui n’est pas un corbeau telle qu’un flamand rose ou même un parapluie gris, confirme (H*) et donc (H). Cependant, cette dernière conclusion apparaît comme paradoxale.

Nous nous attacherons maintenant à détailler l’analyse dichotomique sur laquelle se trouve basée la solution proposée dans Franceschi (1999). La démarche se trouve fondée sur la recherche d’une classe de référence associée à l’énoncé du paradoxe, qui est susceptible d’être définie à l’aide d’une dualité A/Ā. Si l’on examine ainsi avec soin les concepts et les catégories qui sous-tendent les propositions (H) et (H*), on remarque tout d’abord que ceux-ci sont au nombre de quatre : les corbeaux, les objets noirs, les objets non-noirs et les non-corbeaux. Un corbeau tout d’abord se trouve défini de manière précise dans la taxinomie au sein de laquelle il s’insère. Une catégorie comme celle des corbeaux peut être considérée comme bien définie, car elle est basée sur un ensemble de critères précis définissant l’espèce corvus corax et permettant l’identification de ses instances. De même, la classe des objets noirs peut être décrite avec précision, à partir d’une taxinomie des couleurs établie par rapport aux longueurs d’onde de la lumière. Enfin, on peut constater que la classe des objets non-noirs peut également faire l’objet d’une définition qui ne souffre pas d’ambiguïté, à partir notamment de la taxinomie précise des couleurs qui vient d’être mentionnée.

En revanche, qu’en est-il de la classe des non-corbeaux ? Qu’est-ce qui constitue une instance d’un non-corbeau ? Intuitivement, un merle bleu, un flamand rose, un parapluie gris, voire même un entier naturel, constituent des non-corbeaux. Mais doit-on envisager une classe de référence qui aille jusqu’à inclure les objets abstraits ? Faut-il ainsi considérer une notion de non-corbeau qui englobe des entités abstraites tels que les entiers naturels et les nombres complexes ? Ou bien convient-il se limiter à une classe de référence qui n’embrasse que les animaux ? Doit-on considérer une classe de référence qui englobe tous les êtres vivants, ou bien encore toutes les choses concrètes, incluant cette fois également les artefacts ? Finalement, il en résulte que la proposition (H*) initiale est susceptible de donner lieu à plusieurs variations, qui sont les suivantes :

(H1*) Tout ce qui est non-noir parmi les corvidés est un non-corbeau

(H2*) Tout ce qui est non-noir parmi les oiseaux est un non-corbeau

(H3*) Tout ce qui est non-noir parmi les animaux est un non-corbeau

(H4*) Tout ce qui est non-noir parmi les êtres vivants est un non-corbeau

(H5*) Tout ce qui est non-noir parmi les choses concrètes est un non-corbeau

(H6*) Tout ce qui est non-noir parmi les objets concrets et abstraits est un non-corbeau

Ainsi, il apparaît que l’énoncé du paradoxe de Hempel et en particulier la proposition (H*) se trouve associée à une classe de référence, qui permet de définir les non-corbeaux. Une telle classe de référence peut s’assimiler aux corvidés, aux oiseaux, aux animaux, aux êtres vivants, aux choses concrètes, ou encore aux choses concrètes et abstraites, etc. Cependant, dans l’énoncé du paradoxe de Hempel, on ne dispose pas de critère objectif permettant d’effectuer un tel choix. À ce stade, il apparaît que l’on peut choisir une telle classe de référence de manière restrictive, par exemple en l’assimilant aux corvidés. Mais de manière aussi légitime, on peut choisir une classe de référence de manière plus extensive, par exemple en l’identifiant à l’ensemble des choses concrètes, incluant alors notamment les parapluies. Alors pourquoi choisir telle classe de référence définie de manière restrictive plutôt que telle autre définie de façon extensive ? On ne possède pas en réalité de critère pour légitimer le choix, selon que l’on procède par restriction ou par extension, de la classe de référence. Dès lors, il apparaît que celle-ci ne peut être définie que de manière arbitraire. Or le choix d’une telle classe de référence se révèle déterminant, car selon que l’on choisira telle ou telle classe de référence, un objet donné tel qu’un parapluie gris confirmera ou non (H*) et donc (H). Ainsi, si nous choisissons la classe de référence par extension, incluant ainsi l’ensemble des objets concrets, un parapluie gris confirmera (H). Cependant, si nous choisissons une telle classe de référence par restriction, en l’assimilant seulement aux corvidés, un parapluie gris ne confirmera pas (H). Une telle différence se révèle essentielle. En effet, si l’on choisit une définition extensive de la classe de référence, on a bien l’effet paradoxal inhérent au paradoxe de Hempel. Mais dans le cas contraire, si l’on opte pour une classe de référence définie de manière restrictive, on perd alors l’effet paradoxal.

Figure 4. Pôles duaux au sein de la classe de référence des non-corbeaux dans le paradoxe de Hempel

Ce qui précède permet de décrire avec précision les éléments de l’analyse qui précède du paradoxe de Hempel, en termes de biais d’uni-polarisation ainsi qu’il a été défini plus haut : au paradoxe et en particulier à la proposition (H*) se trouve associée la classe de référence des non-corbeaux, qui est elle-même susceptible d’être définie par rapport à ladualité extension/restriction. Or, pour un objet donné tel qu’un parapluie gris, la définition de la classe de référence par extension donne lieu à un effet paradoxal, alors-même que le choix de cette dernière par restriction ne conduit pas à un tel effet.

6.2. Application à l’analyse du paradoxe de l’examen-surprise

La version classique du paradoxe de l’examen-surprise (Quine, 1953 ; Sorensen, 1988) est la suivante : un professeur annonce à ses étudiants qu’un examen aura lieu la semaine prochaine, mais qu’ils ne pourront pas connaître à l’avance le jour précis où l’examen se déroulera. L’examen aura donc lieu par surprise. Les étudiants raisonnent ainsi. L’examen ne peut avoir lieu le samedi, pensent-ils, car sinon ils sauraient à l’avance que l’examen aurait lieu le samedi et donc il ne pourrait survenir par surprise. Aussi le samedi se trouve-t-il éliminé. De plus, l’examen ne peut avoir lieu le vendredi, car sinon les étudiants sauraient à l’avance que l’examen aurait lieu le vendredi et donc il ne pourrait survenir par surprise. Aussi le vendredi se trouve-t-il également éliminé. Par un raisonnement analogue, les étudiants éliminent successivement le jeudi, le mercredi, le mardi et le lundi. Finalement, ce sont tous les jours de la semaine qui sont ainsi éliminés. Toutefois, cela n’empêche pas l’examen de survenir finalement par surprise, le mercredi. Ainsi, le raisonnement des étudiants s’est avéré fallacieux. Pourtant, un tel raisonnement paraît intuitivement valide. Le paradoxe réside ici dans le fait que le raisonnement des étudiants est semble-t-il valide, alors qu’il se révèle finalement en contradiction avec les faits, à savoir que l’examen peut véritablement survenir par surprise, conformément à l’annonce faite par le professeur.

Afin de présenter l’analyse dichotomique (Franceschi, 2005) qui peut être effectuée par rapport au paradoxe de l’examen-surprise, il convient de considérer tout d’abord deux variations qui apparaissent structurellement différentes du paradoxe. Une première variation est associée à la solution au paradoxe proposée par Quine (1953). Quine considère ainsi la conclusion finale de l’étudiant selon laquelle l’examen ne peut avoir lieu par surprise aucun jour de la semaine. Selon Quine, l’erreur de l’étudiant réside dans le fait de n’avoir pas envisagé dès le début l’hypothèse selon laquelle l’examen pourrait avoir lieu le dernier jour. Car le fait de considérer précisément que l’examen n’aura pas lieu le dernier jour permet finalement à l’examen de survenir par surprise, le dernier jour. Si l’étudiant avait également pris en compte cette possibilité dès le début, il ne serait pas parvenu à la conclusion fallacieuse que l’examen ne peut pas survenir par surprise.

La seconde variation du paradoxe qui se révèle intéressante dans le présent contexte, est celle qui est associée à la remarque, effectuée par plusieurs auteurs (Hall, 1999, p. 661; Williamson, 2000), selon laquelle le paradoxe émerge nettement, lorsque le nombre n d’unités est grand. Un tel nombre est habituellement associé à un nombre n de jours, mais on peut aussi bien utiliser des heures, des minutes, des secondes, etc. Une caractéristique intéressante du paradoxe est en effet que celui-ci émerge intuitivement de manière plus nette lorsque de grandes valeurs de n sont prises en compte. Une illustration frappante de ce phénomène nous est ainsi fournie par la variation du paradoxe qui correspond à la situation suivante, décrite par Timothy Williamson (2000, p. 139) :

Advance knowledge that there will be a test, fire drill, or the like of which one will not know the time in advance is an everyday fact of social life, but one denied by a surprising proportion of early work on the Surprise Examination. Who has not waited for the telephone to ring, knowing that it will do so within a week and that one will not know a second before it rings that it will ring a second later ?

La variation décrite par Williamson correspond à l’annonce faite à quelqu’un qu’il recevra un coup de téléphone dans la semaine, sans pouvoir toutefois déterminer à l’avance à quelle seconde précise un tel événement surviendra. Cette variation souligne comment la surprise peut se manifester, de manière tout à fait plausible, lorsque la valeur de n est élevée. L’unité de temps considérée par Williamson est ici la seconde, rapportée à une période qui correspond à une semaine. La valeur correspondante de n est ici très élevée et égale à 604 800 (60 × 60 × 24 × 7) secondes. Cependant, il n’est pas indispensable de prendre en compte une valeur aussi grande de n, et une valeur de n égale par exemple à 365 convient également très bien.

Le fait que deux versions qui semblent a priori assez différentes du paradoxe coexistent, suggère que deux versions structurellement différentes du paradoxe pourraient se trouver inextricablement mêlées dans le paradoxe de l’examen-surprise. De fait, si l’on analyse la version du paradoxe qui donne lieu à la solution de Quine, on s’aperçoit qu’elle présente une particularité : elle est susceptible de se manifester pour une valeur de n égale à 1. La version correspondante de l’annonce du professeur est alors la suivante : «Un examen aura lieu demain, mais vous ne pourrez savoir à l’avance que cet examen aura lieu et par conséquent, il surviendra par surprise.» L’analyse de Quine s’applique directement à cette version du paradoxe pour laquelle n = 1. Dans ce cas, l’erreur de l’étudiant réside, selon Quine, dans le fait de n’avoir considéré que la seule hypothèse suivante : (a) «l’examen aura lieu demain et je prévoirai qu’il aura lieu». En fait, l’étudiant aurait dû considérer également trois autres cas : (b) «l’examen n’aura pas lieu demain et je prévoirai qu’il aura lieu» ; (c) «l’examen n’aura pas lieu demain et je ne prévoirai pas qu’il aura lieu» ; (d) «l’examen aura lieu demain et je ne prévoirai pas qu’il aura lieu». Et le fait de considérer l’hypothèse (a) mais également l’hypothèse (d) qui est compatible avec l’annonce du professeur aurait empêché l’étudiant de conclure que l’examen n’aurait finalement pas lieu. Par conséquent, souligne Quine, c’est le fait de n’avoir pris en considération que l’hypothèse (a) qui peut être identifié comme la cause du raisonnement fallacieux.

On le voit, la structure-même de la version du paradoxe sur laquelle est fondée la solution de Quine présente les particularités suivantes : d’une part, la non-surprise peut effectivement survenir le dernier jour, et d’autre part, l’examen peut également survenir par surprise le dernier jour. Il en va de même pour la version du paradoxe où n = 1 : la non-surprise ainsi que la surprise peuvent survenir le jour n. Ceci permet de représenter une telle structure du paradoxe sous forme de la matrice S[k, s] suivante (où k dénote le jour où l’examen a lieu et S[k, s] dénote si le cas correspondant de non-surprise (s = 0) ou de surprise (s = 1) est rendu possible (dans ce cas, S[k, s] = 1) ou non (dans ce cas, S[k, s] = 0)) :

journon-surprisesurprise
111
211
311
411
511
611
711

Structure matricielle de la version du paradoxe correspondant à la solution de Quine pour n = 7 (une semaine)

journon-surprisesurprise
111

Structure matricielle de la version du paradoxe correspondant à la solution de Quine pour n = 1 (un jour)

Compte tenu de la structure correspondante de la matrice qui admet des valeurs égales à 1 à la fois au niveau des cas de non-surprise et de surprise, pour un jour donné, nous dénommerons conjointe une telle structure de matrice.

Si l’on étudie la variation du paradoxe énoncée par Williamson et mentionnée plus haut, elle présente la particularité, à l’inverse de la variation précédente, d’émerger de manière nette lorsque n est grand. Dans ce contexte, l’annonce du professeur correspondante par exemple à une valeur de n égale à 365, est la suivante : «Un examen aura lieu dans l’année à venir mais la date de l’examen constituera une surprise». Si l’on analyse une telle variation en termes de matrice des cas de non-surprise et de surprise, il apparaît qu’une telle version du paradoxe présente les propriétés suivantes : la non-surprise ne peut survenir le 1er jour alors que la surprise est possible ce même 1er jour ; en revanche, le dernier jour, la non-surprise est possible alors que la surprise n’est pas possible.

journon-surprisesurprise
101
36510

Structure matricielle de la version du paradoxe correspondant à la variation de Williamson pour n = 365 (un an)

Ce qui précède permet maintenant d’identifier avec précision ce qui pêche dans le raisonnement de l’étudiant, lorsqu’il s’applique à cette version particulière du paradoxe. Dans ces circonstances, l’étudiant aurait alors dû raisonner de la manière suivante. La surprise ne peut se manifester le dernier jour mais peut survenir le 1er jour ; la non-surprise peut se manifester le dernier jour, mais ne peut survenir le 1er jour. Il s’agit ici d’instances propres de non-surprise et de surprise, qui se révèlent disjointes. Cependant, la notion de surprise n’est pas capturée de manière exhaustive par l’extension et l’anti-extension de la surprise. Or une telle définition est conforme à la définition d’un prédicat vague, qui se caractérise par une extension et une anti-extension mutuellement exclusives et non-exhaustives. Ainsi, la conception de la surprise associée une structure disjointe est-elle celle d’une notion vague. Aussi l’erreur à l’origine du raisonnement fallacieux de l’étudiant réside-t-elle dans l’absence de prise en compte du fait que la surprise correspond dans le cas d’une structure disjointe, à une notion vague, et comporte donc la présence d’une zone de pénombre correspondant à des cas-limites (borderline) entre la non-surprise et la surprise. Car la seule prise en compte du fait que la notion de surprise est ici une notion vague aurait interdit à l’étudiant de conclure que S[k, 1] = 0, pour toutes les valeurs de k, c’est-à-dire que l’examen ne peut survenir par surprise aucun jour de la période considérée.

Finalement, il apparaît ainsi que l’analyse conduit à distinguer au niveau du paradoxe de l’examen-surprise deux variations indépendantes. La définition matricielle des cas de non-surprise et de surprise conduit à distinguer deux variations du paradoxe, en fonction de la dualité conjoint/disjoint. Dans un premier cas, le paradoxe est basé sur une définition conjointe des cas de non-surprise et de surprise. Dans un second cas, le paradoxe se trouve fondé sur une définition disjointe. Chacune de ces deux variations conduit à une variation structurellement différente du paradoxe et à une solution indépendante. Lorsque la variation du paradoxe est basée sur une définition conjointe, la solution développée par Quine s’applique alors. En revanche, lorsque la variation, du paradoxe est fondée sur une définition disjointe, la solution retenue est fondée sur la reconnaissance préalable de la nature vague de la notion de surprise associée à cette variation du paradoxe.

Figure 5. Pôles duaux dans la classe des matrices associées au paradoxe de l’examen-surprise

On le voit finalement, l’analyse dichotomique du paradoxe de l’examen-surprise conduit à envisager la classe des matrices associées à la définition-même du paradoxe et à distinguer selon que leur structure est conjointe ou bien disjointe. Dès lors, il en résulte une solution indépendante pour chacune des deux versions structurellement différentes du paradoxe qui en résultent.

6.3. Application à l’analyse de l’Argument de l’Apocalypse

L’argument de l’Apocalypse, attribué à Brandon Carter, a été décrit par John Leslie (1993, 1996). Il convient d’en rappeler préalablement l’énoncé. Considérons la proposition (A) suivante :

(A) L’espèce humaine disparaîtra avant la fin du XXIème siècle

On peut estimer, pour fixer les idées, à une chance sur 100 la probabilité que cette disparition survienne : P(A) = 0,01. Soit également la proposition suivante :

(Ā) L’espèce humaine ne disparaîtra pas à la fin du XXIème siècle

Soit encore E l’événement : je vis durant les années 2010. On peut par ailleurs estimer aujourd’hui à 60 milliards le nombre d’humains ayant existé depuis la naissance de l’humanité. De même, la population actuelle peut être évaluée à 6 milliards. On calcule ainsi qu’un humain sur dix, si l’événement A survient, aura connu les années 2010. On évalue alors la probabilité que l’humanité soit éteinte avant la fin du XXIème siècle, si j’ai connu les années 2010 : P(E, A) = 6×109/6×1010 = 0,1. Par contre, si l’humanité passe le cap du XXIème siècle, on peut penser qu’elle sera appelée à une expansion beaucoup plus importante, et que le nombre des humains pourra s’élever par exemple à 6×1012. Dans ce cas, la probabilité que l’humanité ne soit pas éteinte à la fin du XXIème siècle, si j’ai connu les années 2010 s’évalue ainsi : P(E, Ā) = 6×109/6×1012 = 0,001. À ce stade, nous pouvons assimiler à deux urnes distinctes — l’une contenant 60 milliards de boules et l’autre en comportant 6000 milliards — les populations humaines totales qui en résultent. Ceci conduit à calculer la probabilité a posteriori de l’extinction de l’espèce humaine avant la fin du XXIème siècle, à l’aide de la formule de Bayes : P'(A) = [P(A) x P(E, A)] / [P(A) x P(E, A) + P(Ā) x P(E, Ā)] = (0,01 x 0,1) / (0,01 x 0,1 + 0,99 x 0,001) = 0,5025. Ainsi, la prise en compte du fait que je vis actuellement fait passer la probabilité de l’extinction de l’espèce humaine avant 2150 de 1 % à 50,25 %. Une telle conclusion apparaît comme contraire à l’intuition et en ce sens, paradoxale.

Il convient maintenant de s’attacher comment une analyse dichotomique (Franceschi, 1999, 2009) peut s’appliquer à l’argument de l’Apocalypse. En premier lieu, nous nous attacherons à montrer comment l’argument de l’Apocalypse comporte un problème de définition de classe de référence6 liée à une dualité A/Ā. Considérons en effet l’assertion suivante :

(A) L’espèce humaine disparaîtra avant la fin du XXIème siècle

Une telle proposition présente une connotation dramatique, apocalyptique et tragique, liée à la disparition très prochaine de l’espèce humaine. Il s’agit là d’une prédiction de nature tout à fait catastrophique et alarmante. Cependant, si on analyse une telle proposition avec soin, on est conduit à remarquer qu’elle comporte une imprécision. Si la référence temporelle elle-même — la fin du XXIème siècle — se révèle tout à fait précise, le terme d’ «espèce humaine» proprement dit apparaît comme ambigu. En effet, il s’avère qu’il existe plusieurs façons de définir cette dernière. La notion la plus précise permettant de définir l’ «espèce humaine» est notre présente taxinomie scientifique, basée sur les notions de genre, d’espèce, de sous-espèce, etc. En adaptant cette dernière taxinomie à l’assertion (A), il s’ensuit que la notion ambiguë d’ «espèce humaine» est susceptible d’être définie par rapport au genre, à l’espèce, à la sous-espèce, etc. et en particulier par rapport au genre homo, à l’espèce homo sapiens, à la sous-espèce homo sapiens sapiens, etc. Finalement, il s’ensuit que l’assertion (A) est susceptible de revêtir les formes suivantes :

(Ah) Le genre homo disparaîtra avant la fin du XXIème siècle

(Ahs) L’espèce homo sapiens disparaîtra avant la fin du XXIème siècle

(Ahss) La sous-espèce homo sapiens sapiens disparaîtra avant la fin du XXIème siècle

À ce stade, la lecture de ces différentes propositions conduit à un impact différent, eu égard à la proposition initiale (A). Car si (Ah) présente bien à l’instar de (A) une connotation tout à fait dramatique et tragique, il n’en va pas de même pour (Ahss). En effet, une telle proposition qui prévoit l’extinction de notre sous-espèce actuelle homo sapiens sapiens avant la fin du XXIème siècle, pourrait s’accompagner du remplacement de notre actuelle race humaine par une nouvelle sous-espèce plus évoluée, que l’on pourrait dénommer homo sapiens supersapiens. Dans ce cas, la proposition (Ahss) ne comporterait pas de connotation tragique, mais serait associée à une connotation positive, car le remplacement d’une race ancienne par une espèce plus évoluée constitue un processus naturel de l’évolution. Plus encore, en choisissant une classe de référence encore plus restreinte telle que celle des humains n’ayant pas connu l’ordinateur (homo sapiens sapiens antecomputeris), on obtient la proposition suivante :

(Ahsss) L’infra-sous-espèce homo sapiens sapiens antecomputeris disparaîtra avant la fin du XXIème siècle

qui ne présente plus du tout la connotation dramatique inhérente à (A) et qui se révèle même tout à fait normale et rassurante, et qui ne présente plus de caractère paradoxal ni contraire à l’intuition. Dans ce cas en effet, la disparition de l’infra-sous-espèce homo sapiens sapiens antecomputeris s’accompagne de la surviede l’infra-sous-espèce plus évoluée homo sapiens sapiens postcomputeris. Il s’avère ainsi qu’un classe de référence restreinte coïncidant avec une infra-sous-espèce est définitivement éteinte, mais qu’une classe plus étendue correspondant à une sous-espèce (homo sapiens sapiens) survit. Dans ce cas, on observe bien le décalage bayesien décrit par Leslie, mais l’effet de ce décalage se révèle cette fois tout à fait inoffensif.

Ainsi, le choix de la classe de référence pour la proposition (A) se révèle-t-il déterminant pour la nature paradoxale de la conclusion associée à l’argument de l’Apocalypse. Si l’on choisit ainsi une classe de référence étendue pour la définition-même des humains, en l’associant par exemple au genre homo, on conserve le caractère dramatique et inquiétant associé à la proposition (A). Mais si on choisit une telle classe de référence de manière restrictive, en l’associant par exemple à l’infra-sous-espèce homo sapiens sapiens antecomputeris, un contenu rassurant et normal se trouve désormais associé à la proposition (A) qui sous-tend l’argument de l’Apocalypse.

Finalement, nous sommes en mesure de replacer l’analyse qui précède dans le présent contexte. La définition-même de la classe de référence des «humains» associée à la proposition (A) inhérente à l’argument de l’Apocalypse est susceptible d’être définie selon les pôles de la dualité extension/restriction. Une analyse fondée sur un point de vue bi-polarisé conduit à constater que le choix par extension entraîne un effet paradoxal, alors-même que le choix par restriction de la classe de référence fait disparaître ce même effet paradoxal.

Figure 6. Pôles duaux au sein de la classe de référence des «humains» dans l’Argument de l’Apocalypse

L’analyse dichotomique, toutefois, en ce qui concerne l’argument de l’Apocalypse, ne se limite pas à cela. En effet, si on étudie l’argument avec soin, il apparaît qu’il recèle une autre classe de référence associée à une autre dualité. Ceci peut être mis en évidence en analysant l’argument opposé par William Eckhardt (1993, 1997) à l’argument de l’Apocalypse. Selon Eckhardt, la situation humaine correspondant à DA n’est pas analogue au modèle des deux urnes décrit par Leslie, mais plutôt à un modèle alternatif, qui peut être appelé le distributeur d’objets consécutifs (consecutive token dispenser). Le distributeur d’objets consécutifs est un dispositif qui éjecte à intervalles réguliers des boules numérotées consécutivement :

(…) suppose on each trial the consecutive token dispenser expels either 50 (early doom) or 100 (late doom) consecutively numbered tokens at the rate of one per minute.

S’appuyant sur ce modèle, Eckhardt (1997, p. 256) souligne le fait qu’il est impossible d’effectuer une sélection aléatoire, dès lorsqu’il existe de nombreux individus qui ne sont pas encore nés au sein de la classe de référence correspondante : «How is it possible in the selection of a random rank to give the appropriate weight to unborn members of the population ?». L’idée forte d’Eckhardt qui sous-tend cette objection diachronique est qu’il est impossible d’effectuer une sélection aléatoire lorsqu’il existe de nombreux membres au sein de la classe de référence qui ne sont pas encore nés. Dans une telle situation, il serait tout à fait erroné de conclure à un décalage bayesien en faveur de l’hypothèse (A). En revanche, ce que l’on peut inférer de manière rationnelle dans un tel cas, c’est que la probabilité initiale demeure inchangée.

À ce stade, il apparaît que deux modèles alternatifs pour modéliser l’analogie avec la situation humaine correspondant à l’argument de l’Apocalypse se trouvent en concurrence : d’une part le modèle à caractère synchronique (où toutes les boules sont présentes dans l’urne au moment où s’effectue le tirage) préconisé par Leslie et d’autre part, le modèle diachronique d’Eckhardt, où des boules peuvent être ajoutées dans l’urne après le tirage. La question qui se pose est la suivante : la situation humaine correspondant à l’argument de l’Apocalypse est-elle en analogie avec (a) le modèle de l’urne synchronique, ou bien avec (b) le modèle de l’urne diachronique ? Afin d’y répondre, la question suivante s’ensuit : existe-t-il un critère objectif qui permette de choisir, de manière préférentielle, entre les deux modèles concurrents ? Il apparaît que non. En effet, ni Leslie ni Eckhardt ne présentent une motivation objective qui permette de justifier le choix du modèle qu’ils préconisent, et d’écarter le modèle alternatif. Dans ces circonstances, le choix de l’un ou l’autre des deux modèles — synchronique ou diachronique — apparaît comme arbitraire. Par conséquent, il s’avère que le choix au sein de la classe des modèles associée à l’argument de l’Apocalypse est susceptible d’être défini selon les pôles de la dualité synchronique/diachronique. Et une analyse fondée sur un point de vue bi-polarisé conduit à constater que le choix du modèle synchronique conduit à un effet paradoxal, alors-même que le choix du modèle diachronique fait disparaître ce dernier effet paradoxal.

Figure 7. Pôles duaux au sein de la classe des modèles de l’Argument de l’Apocalypse

Finalement, compte tenu du fait que le problème précité concernant la classe de référence des humains et le choix dans la dualité extension/restriction qui lui est associé, ne concerne que le modèle synchronique, la structure de l’analyse dichotomique à un double niveau concernant l’argument de l’Apocalypse, peut être représentée de la manière suivante :

Figure 8. Structure de pôles duaux imbriqués Diachronie/Synchronie et Extension/Restriction pour l’Argument de l’Apocalypse

On le voit, les développements qui précèdent mettent en oeuvre la forme de contextualisme dialectique qui a été décrite plus haut, en l’appliquant à l’analyse de trois paradoxes philosophiques contemporains. Dans le paradoxe de Hempel, à la proposition (H*) se trouve associée la classe de référence des non-corbeaux, qui est elle-même susceptible d’être définie par rapport à ladualité extension/restriction. Or, pour un objet x donné tel qu’un parapluie gris, la définition de la classe de référence par extension donne lieu à un effet paradoxal, alors-même que le choix de cette dernière par restriction élimine un tel effet. En second lieu, les structures matricielles associées au paradoxe de l’examen-surprise sont analysées sous l’angle de la dualité conjoint/disjoint, mettant ainsi en évidence deux versions structurellement distinctes du paradoxe, qui admettent elles-mêmes deux résolutions indépendantes. Enfin, au niveau de l’argument de l’Apocalypse, une analyse dichotomique double met en évidence que la classe des humains est liée à la dualité extension/restriction, et que l’effet paradoxal qui est manifeste lorsque la classe de référence est définie par extension, se dissout dès lors que cette dernière est définie par restriction. En second lieu, il s’avère que la classe des modèles peut faire l’objet d’une définition selon la dualité synchronique/diachronique ; au point de vue synchronique se trouve associé un effet paradoxal, alors que ce même effet disparaît si l’on se place du point de vue diachronique.

Remerciements

Je suis très reconnaissant envers Pascal Engel à qui je dois l’inspiration de la rédaction de ce texte. Il a en effet été élaboré à partir d’éléments entièrement remaniés de mon mémoire d’habilitation à diriger les recherches, présenté en 2006, comportant notamment la correction d’une erreur conceptuelle, suivant en cela les commentaires et les recommandations que Pascal Engel m’avait faits à l’époque. Une version antérieure de ce texte a été incluse dans le Liber Amicorum dédié à Pascal Engel.


Références

Beck, Aaron, 1963, «Thinking and depression : Idiosyncratic content and cognitive distortions», Archives of General Psychiatry, vol. 9, p. 324-333.

Beck, Aaron, 1964, «Thinking and depression : Theory and therapy», Archives of General Psychiatry, vol. 10, p. 561-571.

Blair, J. Anthony, 1988, «What Is Bias ?» dans Trudy Govier dir., Selected Issues in Logic and Communication, Belmont CA, Wadsworth, p. 101-102).

Boulanger, Philippe, 2000, «Culture et nature», Pour la Science, vol. 273, p. 3.

Chalmers, David, 2002, «The St. Petersburg two-envelope paradox», Analysis, vol. 62, p. 155-157.

Eckhardt, William, 1993, «Probability Theory and the Doomsday Argument», Mind, vol. 102, p. 483-488.

Eckhardt, William, 1997, «A Shooting-Room view of Doomsday», Journal of Philosophy, vol. 94, p. 244-259.

Ellis, Albert, 1962, Reason and Emotion in Psychotherapy, New York, Lyle Stuart.

Franceschi, Paul, 1999, «Comment l’urne de Carter et Leslie se déverse dans celle de Carter», Canadian Journal of Philosophy, vol. 29, p. 139-156.

Franceschi, Paul, 2002, «Une classe de concepts», Semiotica, vol. 139 (1-4), p. 211-226.

Franceschi, Paul, 2005, «Une analyse dichotomique du paradoxe de l’examen surprise», Philosophiques, vol. 32-2, p. 399-421.

Franceschi, Paul, 2007, «Compléments pour une théorie des distorsions cognitives», Journal de Thérapie Comportementale et Cognitive,vol. 17-2, p. 84-88.

Franceschi, Paul, 2009, «A Third Route to the Doomsday Argument», Journal of Philosophical Research, vol. 34, p. 263-278.

Hall, Ned, 1999, «How to Set a Surprise Exam», Mind, vol. 108, p. 647-703.

Leslie, John, 1993, «Doom and Probabilities», Mind, vol. 102, p. 489-491.

Leslie, John, 1996, The End of the World : the science and ethics of human extinction, Londres, Routledge

Quine, Willard Van Orman, 1953, «On a So-called Paradox», Mind, vol. 62, p. 65-66.

Sorensen, Roy, 1988, Blindspots, Oxford, Clarendon Press.

Stuart Mill, John, 1985, On Liberty, Londres, Penguin Classics, original publication in 1859.

Walton, Douglas, 1997, «What is Propaganda, and What Exactly is Wrong with it», Public Affairs Quarterly, vol. 11, p. 383-413.

Walton, Douglas, 1999, One-Sided Arguments : A Dialectical Analysis of Bias, Albany, State University of New York Press.

Williamson, Timothy, 2000, Knowledge and its Limits, Londres & New York, Routledge.


1Une telle notion se trouve au coeur du concept de matrice de concepts introduit dans Franceschi (2002), dont on peut considérer qu’elle constitue le noyau, ou une forme simplifiée. Pour le présent exposé portant spécifiquement sur les éléments du contextualisme dialectique et leur application pour la résolution de paradoxes philosophiques, la présentation des pôles duaux se révèle suffisante.

2Plusieurs problèmes ouverts en résultent dans cette construction : (a) est-il possible de concevoir une liste qui soit exhaustive de telles dualités ? (b) existe-t-il une méthodologie pour produire une liste la plus exhaustive possible de ces dualités ?

3La présente construction s’applique également à des objets qui sont associés à plusieurs classes de référence. Nous nous limitons ici, dans un souci de simplification, à une seule classe de référence.

4Philippe Boulanger indique (correspondance personnelle) qu’il a entendu Stanislas Ulam développer ce point particulier lors d’une conférence à l’Université du Colorado.

5Une application de la présente construction aux distorsions cognitives, introduites par Aaron Beck (1963, 1964) dans les éléments constitutifs de la thérapie cognitive, est donnée dans Franceschi (2007). Les distorsions cognitives sont classiquement définies comme des raisonnements fallacieux jouant un rôle déterminant dans l’émergence d’un certain nombre de troubles mentaux. La thérapie cognitive en particulier se fonde sur l’identification de ces distorsions cognitives dans le raisonnement usuel du patient, et leur remplacement par des raisonnements alternatifs. Classiquement, les distorsions cognitives sont décrites comme l’un des douze modes de raisonnement irrationnel suivants : 1. Raisonnement émotionnel 2. Hyper-généralisation 3. Inférence arbitraire 4. Raisonnement dichotomique 5. Obligations injustifiées (Should statements, (Ellis 1962)) 6. Divination ou lecture mentale 7. Abstraction sélective 8. Disqualification du positif 9. Maximisation et minimisation 10. Catastrophisme 11. Personnalisation 12. Étiquetage.

6L’analyse de l’argument de l’Apocalypse du point de vue du problème de la classe de référence est effectuée de manière détaillée par Leslie (1996). Mais l’analyse de Leslie vise à montrer que le choix de la classe de référence, par extension ou par restriction, n’a pas d’incidence sur la conclusion de l’argument lui-même.

L’argument de la Simulation et le problème de la classe de référence

L’argument de la Simulation et le problème de la classe de référence : le point de vue du contextualisme dialectique

Paul Franceschi

Université de Corse

Paul Franceschi

Fontaine du salario

Lieu-dit Morone

20000 Ajaccio

France

post-publication d’un article paru dans la revue Philosophiques, Volume 43, Numéro 2, Automne, 2016, p. 371–389

ABSTRACT. I present in this paper an analysis of the Simulation argument from a dialectical contextualist standpoint. This analysis is grounded on the reference class problem. I begin with describing Bostrom’s Simulation Argument step-by-step. I identify then the reference class within the Simulation argument. I also point out a reference class problem, by applying the argument successively to several references classes: aware-simulations, rough simulations and cyborg-type simulations. Finally, I point out that there are three levels of conclusion within the Simulation Argument, depending on the chosen reference class, that yield each final conclusions of a fundamentally different nature.

RESUMÉ. Je présente dans cet article une analyse de l’argument de la Simulation selon le point de vue du contextualisme dialectique, fondée sur le problème de la classe de référence. Je décris tout d’abord étape par étape l’argument de la Simulation. J’identifie ensuite la classe de référence et j’applique successivement l’argument à plusieurs classes de référence distinctes : les simulations conscientes de leur propre nature de simulation, les simulations grossières et les simulations de type cyborg. Finalement, je montre qu’il existe trois niveaux de conclusion dans l’argument de la Simulation, selon la classe de référence choisie, qui engendrent des conclusions finales d’une nature très différente.

1. L’argument de la Simulation

Je proposerai dans ce qui suit une solution pour résoudre le problème posé par l’argument de la Simulation, récemment décrit par Nick Bostrom (2003). Je m’attacherai tout d’abord à décrire en détail l’argument de la Simulation, en exposant notamment le problème qui lui est inhérent. Je montrerai ensuite comment une solution peut être apportée à un tel problème, fondée sur l’analyse de la classe de référence qui sous-tend SA, et sans qu’il soit nécessaire de renoncer à ses intuitions préthéoriques.

L’idée générale qui sous-tend l’argument de la Simulation (SA) peut être ainsi énoncée. Il est très probable que des civilisations post-humaines posséderont une puissance de calcul informatique tout à fait hors de proportion avec celle qui est la nôtre actuellement. Une telle puissance de calcul extraordinaire devrait leur conférer la capacité de réaliser des simulations humaines tout à fait réalistes, telles notamment que les habitants de ces simulations auraient une conscience de leur propre existence, en tous points similaire à la nôtre. Dans un tel contexte, on peut penser qu’il est probable que des civilisations post-humaines consacreront effectivement une partie de leurs ressources informatiques à réaliser des simulations des civilisations humaines qui les ont précédés. Dans ce cas, le nombre des humains simulés devrait très largement excéder celui des humains authentiques. Dans de telles conditions, le fait de prendre en compte le simple fait que nous existions conduit à la conclusion qu’il est plus probable que nous fassions partie des humains simulés, plutôt que des humains authentiques.

Bostrom s’attache également à décrire l’argument de la Simulation avec précision. Il souligne que l’argument de la Simulation est basé sur les trois hypothèses suivantes :

(1)l’humanité connaîtra une extinction prochaine
(2)les civilisations post-humaines ne réaliseront pas de simulations d’humains
(3)nous vivons actuellement dans une simulation réalisée par une civilisation post-humaine

La première étape du raisonnement consiste à considérer, par dichotomie, que soit (a) l’humanité connaîtra une extinction prochaine, soit (b) elle poursuivra son existence dans un lointain avenir. La première de ces deux hypothèses constitue la disjonction (1) de l’argument. On considère ensuite l’hypothèse selon laquelle l’humanité ne connaîtra pas une extinction prochaine et poursuivra ainsi son existence durant de nombreux millénaires. Dans un tel cas, on peut également considérer qu’il est probable que les civilisations post-humaines posséderont à la fois la technologie et les aptitudes nécessaires pour réaliser des simulations d’humains. Une nouvelle dichotomie se présente alors : soit (a) ces civilisations post-humaines ne réaliseront pas de telles simulations—il s’agit de la disjonction (2) de l’argument ; soit (b) ces civilisations post-humaines réaliseront effectivement de telles simulations. Dans ce dernier cas, il s’ensuivra que le nombre d’humains simulés excédera largement celui des humains. La probabilité de vivre dans une simulation sera donc beaucoup plus grande que celle de vivre dans la peau d’un humain ordinaire. Il s’ensuit alors la conclusion que nous autres, habitants de la Terre, vivons probablement dans une simulation réalisée par une civilisation post-humaine. Cette dernière conclusion constitue la disjonction (3) de l’argument. Une étape supplémentaire conduit alors à considérer qu’en l’absence d’élément probant en faveur de l’une ou l’autre d’entre elles, on peut considérer les hypothèses (1), (2) et (3) comme équiprobables.

L’argument de la Simulation peut être décrit étape par étape de la manière suivante :

(4)soit l’humanité connaîtra une extinction prochaine, soit l’humanité ne connaîtra pas une extinction prochainedichotomie 1
(1)l’humanité connaîtra une extinction prochainehypothèse 1.1
(5)l’humanité ne connaîtra pas une extinction prochainehypothèse 1.2
(6)les civilisations post-humaines seront capables de réaliser des simulations d’humainsde (5)
(7)soit les civilisations post-humaines ne réaliseront pas de simulations d’humains, soit elles en réaliserontdichotomie 2
(2)les civilisations post-humaines ne réaliseront pas de simulations d’humainshypothèse 2.1
(8)les civilisations post-humaines réaliseront des simulations d’humainshypothèse 2.2
(9)la proportion des humains simulés excédera très largement celle des humainsde (8)
(3)nous vivons actuellement dans une simulation réalisée par une civilisation post-humainede (9)
(10)en l’absence d’élément probant en faveur de l’une d’entre elles, les hypothèses (1), (2) et (3) sont équiprobablesde (1), (2), (3)

Il convient également de mentionner un élément qui résulte de l’interprétation-même de l’argument. Car ainsi que le précise Bostrom (2005), l’argument de la Simulation ne doit pas être mal interprété. Il ne s’agit pas en effet d’un argument qui conduit à la conclusion que (3) est vraie, à savoir que nous vivons actuellement dans une simulation réalisée par une civilisation post-humaine. Le noyau de l’argument de la Simulation réside ainsi dans le fait que les propositions (1), (2) ou (3) sont équiprobables.

Cette nuance d’interprétation étant mentionnée, l’argument de la Simulation ne manque pas cependant de poser un problème. Car l’argument conduit à la conclusion que l’une des propositions (1), (2) ou (3) au moins est vraie, et que dans la situation d’ignorance où nous nous trouvons, on peut les considérer comme équiprobables. Ainsi que Bostrom le note : “In the dark forest of our current ignorance, it seems sensible to apportion one’s credence roughly evenly between (1), (2) and (3).” (Bostrom 2003). Cependant, selon notre intuition pré-théorique, la probabilité de (3) est nulle ou au mieux extrêmement proche de 0. Ainsi, la conclusion de l’argument a pour conséquence de faire passer la probabilité que (3) soit vraie, de zéro à une probabilité d’environ 1/3. Ainsi, le problème posé par l’argument de la Simulation est précisément qu’il fait passer—via sa conclusion disjonctive—une probabilité nulle ou quasi-nulle concernant (3) à une probabilité beaucoup plus considérable d’environ 1/3. Car une probabilité de 1/3 pour les propositions (1) et (2) ne possède rien de choquant a priori, mais se révèle en revanche tout à fait contraire à l’intuition pour ce qui concerne la proposition (3). C’est en ce sens que l’on peut parler du problème posé par l’argument de la Simulation et de la nécessité de rechercher une solution à ce dernier.

De manière préliminaire, il convient de s’interroger sur ce qui constitue l’aspect paradoxal de SA. Qu’est-ce en effet qui confère une nature paradoxale à SA ? Car SA se distingue de la classe des paradoxes qui conduisent à une contradiction. Dans les paradoxes comme le Menteur ou bien le paradoxe sorite, le raisonnement correspondant conduit à une contradiction : le Menteur est à la fois vrai et faux. Dans le paradoxe sorite, un objet comportant un certain nombre de grains de sable est à la fois un tas et un non-tas. Rien de tel ne se manifeste au niveau de SA qui appartient, de ce point de vue, à une classe différente de paradoxes dont fait également partie l’argument de l’Apocalypse. Il s’agit en effet d’une classe de paradoxes dont la conclusion présente une nature contraire à l’intuition, et qui se place en conflit avec l’ensemble de nos croyances. Dans l’argument de l’Apocalypse, la conclusion selon laquelle la prise en considération de notre rang au sein de la classe des humains ayant jamais existé a pour effet qu’une apocalypse est beaucoup plus probable qu’on aurait pu l’envisager initialement, vient heurter l’ensemble de nos croyances. De manière similaire, ce qui apparaît finalement ici comme paradoxal, en première analyse, c’est que SA conduit à une probabilité de l’hypothèse selon laquelle nous vivons actuellement dans une simulation crée par des post-humains, qui est supérieure à celle qui résulte de notre intuition pré-théorique.

2. La classe de référence dans l’argument de la Simulation

La conclusion du raisonnement qui sous-tend SA, fondée sur le calcul du ratio futur entre les humains réels et les humains simulés, si elle se révèle contraire à l’intuition, résulte néanmoins d’un raisonnement qui apparaît a priori valide. Cependant, un tel raisonnement suscite une interrogation, qui se trouve liée à la classe de référence qui est inhérente à l’argument lui-même1. En effet, il s’avère que SA comporte, de manière indirecte, une classe de référence particulière, qui est celle des simulations d’humains. Mais qu’est-ce donc qui constitue une simulation ? L’argument original se réfère, de manière implicite, à une classe de référence qui est celle des simulations virtuelles d’humains, d’une très haute qualité et par nature indiscernables des humains authentiques. Toutefois, une certaine ambiguïté s’attache à la notion-même de simulation et la question se pose de l’applicabilité de SA à d’autres types de simulations d’humains2. On peut en effet concevoir des types de simulations quelque peu différents qui, de manière intuitive, entrent également dans le champ de l’argument.

Il est possible d’imaginer tout d’abord un type de simulations en tous points identiques à celles décrites dans l’argument original, c’est-à-dire quasiment indiscernables des humains authentiques, mais à la seule différence qu’elles seraient conscientes de leur propre nature de simulation. L’unique différence avec le type de simulation mis en scène dans l’argument original serait donc que ces dernières simulations auraient clairement conscience de ne pas être des humains authentiques. A priori, rien n’exclut que des post-humains choisissent de mettre en oeuvre de telles simulations et de manière intuitive, SA est susceptible de s’appliquer également à ce type particulier de simulations.

De même, de manière implicite, SA se réfère à des simulations sophistiquées, de très haute qualité, qui sont par nature indiscernables des humains authentiques. Cependant, on peut concevoir différents degrés dans la qualité des simulations humaines. Aussi la question se pose-t-elle notamment de savoir si l’on peut inclure dans la classe de référence de SA des simulations virtuelles qui seraient d’une qualité très légèrement inférieure ? Avec de telles simulations, la nature de simulation qui constitue leur identité profonde serait susceptible d’être un jour découverte par le sujet lui-même. Si l’argument doit s’appliquer à cette classe de simulations, la question est alors posée de son applicabilité à d’autres types de simulations de cette nature, car on peut concevoir de nombreux degrés intermédiaires entre d’une part, les simulations indiscernables et d’autre part, les simulations que nous sommes actuellement capables de réaliser, au moyen notamment des images de synthèse. Aussi, la question se pose-t-elle de savoir si la classe de référence de SA peut aller jusqu’à inclure les simulations de moindre qualité que celles évoquées dans l’argument original ?

Enfin, il apparaît que SA ‘fonctionne’ également si on l’applique à des humains, dont le cerveau est interfacé avec des uploads, des simulations de l’esprit humain incluant les événements mémorisés, les connaissances, les traits de personnalité, les modes de raisonnement, etc. propres à un individu. On peut imaginer en effet que dans un futur pas très lointain, l’émulation du cerveau humain pourrait être achevée (Moravec 1998, Sandberg & Bostrom 2008, De Garis et al. 2010), de sorte que la réalisation d’uploads pourrait devenir courante et être utilisée de manière intensive. Un très grand nombre d’uploads pourraient ainsi être réalisés et utilisés à des fins diverses : scientifiques, culturelles, sociales, utilitaires, etc. Si on assimile ainsi les uploads aux simulations de SA, l’argument fonctionne également. En un sens, les humains dotés d’uploads peuvent être considérés comme des simulations de nature partielle, qui ne concernent que le cerveau ou une partie du cerveau, alors même que le reste du corps humain demeure authentique et non simulé. Dans un tel cas, les humains dont le cerveau seul est simulé à l’aide d’un upload, peuvent être assimilés à un type particulier de cyborgs. On peut ainsi se poser la question générale de savoir dans quelle mesure la classe des simulations de SA peut être étendue aux simulations partielles et aux types de cyborgs qui viennent d’être décrits. On peut concevoir en effet des cyborgs de différents types, selon les parties du corps et les organes de remplacement ou de substitution qui sont les leurs. Aussi la question se pose-t-elle de savoir jusqu’à quel point SA s’applique également à ce type de cyborgs ?

On le voit, la question-même de la définition de la classe de référence pour SA conduit à s’interroger sur l’inclusion ou non dans le champ de SA de plusieurs types de simulations. Sans prétendre à l’exhaustivité, on peut mentionner à ce stade, parmi ces dernières : les simulations conscientes, les simulations plus ou moins grossières et les simulations partielles de type cyborg. La question de la définition de la classe de référence pour SA apparaît ainsi étroitement liée à la nature de la future taxinomie des êtres et des créatures qui peupleront la Terre dans un futur proche ou éloigné.

À ce stade, il s’avère en première approche que les types de simulations d’humains présentent une nature assez variée, et que l’on peut définir la classe de référence des simulations de différentes manières. On pourrait ainsi choisir la classe de référence de manière plus ou moins restrictive ou plus ou moins extensive. Dans ce contexte, il s’avère nécessaire d’analyser de manière plus approfondie les conséquences de l’un ou l’autre choix.

3. Le problème de la classe de référence : le cas des simulations conscientes

À ce stade, on ne peut encore véritablement parler de problème de la classe de référence au sein de SA. Pour cela en effet, il convient de montrer que le choix de l’une ou l’autre classe de référence a des conséquences tout à fait différentes au niveau de l’argument, et en particulier que la nature de sa conclusion s’en trouve modifiée de manière fondamentale. Dans ce qui suit, nous nous attacherons désormais à montrer que selon que l’on choisit l’une ou l’autre classe de référence, des conclusions radicalement différentes s’ensuivent au niveau de l’argument lui-même et que par conséquent, il existe bien un problème de classe de référence au sein de SA. Nous considérerons pour cela successivement plusieurs classes de référence, en nous attachons à montrer comment des conclusions de nature fondamentalement différente en résultent au niveau de l’argument lui-même.

La version originale de SA met en scène, de manière implicite, des simulations d’humains d’un certain type. Il s’agit de simulations de type virtuel, quasiment indiscernables pour nous-mêmes et qui présentent ainsi un degré de sophistication très élevé. Plus encore, il s’agit d’un type de simulations qui n’ont pas conscience qu’elles sont elles-mêmes simulées et qui sont donc persuadées d’être des humains authentiques. Ceci résulte implicitement des termes de l’argument lui-même et en particulier, de l’inférence de (9) à (3) qui conduit à conclure que ‘nous’ vivons actuellement dans une simulation indiscernable réalisée par des post-humains. De fait, il s’agit de simulations qui sont en quelque sorte abusées et trompées par les post-humains en ce qui concerne leur identité véritable. Pour les besoins de la présente discussion, nous dénommerons quasi-humains les humains simulés qui n’ont pas conscience qu’ils le sont.

À ce stade, il s’avère que l’on peut également concevoir des simulations indiscernables qui présentent un degré tout à fait identique de sophistication mais qui, à l’inverse, auraient conscience qu’elles sont simulées. Nous appellerons ainsi quasi-humains+ des humains simulés ayant conscience qu’ils sont eux-mêmes des simulations. De telles simulations sont en tous points identiques aux quasi-humains auxquels SA se réfère de manière implicite, à la seule différence qu’elles sont cette fois clairement conscientes de leur nature intrinsèque de simulation. De manière intuitive, SA s’applique également à ce type de simulation. A priori, on ne possède pas de justification pour écarter un tel type de simulation. Plus encore, plusieurs raisons conduisent à penser que les quasi-humains+ pourraient être plus nombreux que les quasi-humains. Pour des raisons éthiques (a) tout d’abord, on peut penser que les post-humains pourraient être enclins à préférer les quasi-humains+ aux quasi-humains. Car le fait de conférer une existence aux quasi-humains constitue une tromperie sur leur identité véritable, alors qu’un tel inconvénient est absent lorsqu’il s’agit des quasi-humains+. Une telle tromperie pourrait raisonnablement être considérée comme non-éthique et conduire à une forme ou une autre d’interdiction des quasi-humains. Une autre raison (b) milite pour le fait de ne pas écarter, a priori, les simulations d’humains ayant conscience de leur propre nature de simulation. En effet, on peut penser que le niveau d’intelligence acquis par certains quasi-humains dans un futur proche pourrait être extrêmement élevé et faire que dans ce cas, les simulations deviendraient très rapidement conscientes qu’elles sont elles-mêmes des simulations. On peut penser qu’à partir d’un certain degré d’intelligence, et en particulier celui susceptible d’être obtenu par l’humanité dans un futur pas très éloigné (Kurtzweil 2000, 2005, Bostrom 2006), les quasi-humains devraient être à même—au moins beaucoup plus facilement qu’actuellement—de recueillir les preuves qu’ils sont l’objet d’une simulation. Plus encore, le concept-même de ‘simulation non-consciente qu’elle est une simulation’ pourrait être entaché de contradiction, car il faudrait alors limiter son intelligence et dès lors, il ne s’agirait plus une simulation indiscernable et suffisamment réaliste. Ces deux raisons inclinent à penser que les quasi-humains+ pourraient bien exister en plus grand nombre que les quasi-humains.

À ce stade, il s’avère nécessaire d’envisager les conséquences de la prise en compte des quasi-humains+ au sein de la classe de référence des simulations inhérente à SA. Pour cela, considérons tout d’abord la variation de SA (dénommons-la SA*) qui s’applique, de manière exclusive, à la classe des quasi-humains+. Un tel choix, tout d’abord, n’a pas de conséquence sur la disjonction (1) de SA, qui se réfère à une possible disparition prochaine de notre humanité. Cela n’a pas d’effet non plus sur la disjonction (2), selon laquelle les post-humains ne réaliseront pas de quasi-humains+, c’est-à-dire de simulations conscientes d’êtres humains. En revanche, le choix d’une telle classe de référence a une conséquence directe sur la disjonction (3) de SA. Certes, il s’ensuit, de la même manière que pour l’argument original, la conclusion de premier niveau selon laquelle le nombre des quasi-humains+ excédera largement le nombre des humains authentiques (la disproportion). Cependant, il ne s’ensuit plus désormais la conclusion de second niveau selon laquelle ‘nous’ sommes actuellement des quasi-humains+. En effet, une telle conclusion (appelons-la l’auto-applicabilité) ne s’applique plus à nous désormais, puisque que nous n’avons pas conscience d’être simulés et sommes tout à fait convaincus d’être des humains authentiques. En effet, ce qui constitue la conclusion inquiétante de SA ne résulte plus désormais de l’étape (9), puisque nous ne pouvons nous identifier aux quasi-humains+, ces derniers ayant clairement conscience qu’ils évoluent dans une simulation. Ainsi, à la différence de la version originale de SA basée sur la classe de référence qui associe les humains aux quasi-humains, cette nouvelle version associant les humains et les quasi-humains+, n’est pas associée à une telle conclusion inquiétante. La conclusion qui s’ensuit désormais, on le voit, s’avère tout à fait rassurante, et en tout état de cause très différente de celle, profondément inquiétante, qui résulte de l’argument original.

À ce stade, il apparaît qu’une question se pose : doit-on identifier, dans le contexte de SA, la classe de référence aux quasi-humains ou bien aux quasi-humains+ ? Il s’avère qu’aucun élément objectif, dans l’énoncé de SA, ne vient conforter le choix a priori des quasi-humains ou des quasi-humains+. Ainsi, toute version de l’argument qui comporte le choix préférentiel des quasi-humains ou bien des quasi-humains+ apparaît comme comportant un biais. Tel est ainsi le cas pour la version originale de SA, qui comporte ainsi un biais en faveur des quasi-humains, qui résulte du choix par Bostrom d’une classe des simulations qui s’assimile exclusivement à des quasi-humains, c’est-à-dire à des simulations non-conscientes de leur nature de simulation et qui sont par conséquent abusées et trompées par les post-humains sur la nature-même de leur identité. Et tel est également le cas pour SA* la version alternative de SA qui vient d’être décrite, qui comporte un biais particulier en faveur des quasi-humains+, des simulations conscientes de leur propre nature de simulation. Cependant, le choix de la classe de référence se révèle ici fondamental, car il comporte une conséquence essentielle : si l’on choisit une classe de référence qui associe les humains aux quasi-humains, il en résulte la conclusion inquiétante que nous vivons actuellement très probablement dans une simulation. En revanche, si l’on choisit une classe de référence qui associe les humains aux quasi-humains+, il s’ensuit un scénario qui de manière rassurante, ne comporte pas une telle conclusion. À ce stade, il apparaît bien que le choix des quasi-humains, c’est-à-dire à des simulations non-conscientes, dans la version originale de SA, au détriment des simulations conscientes, constitue un choix arbitraire. En effet, qu’est-ce qui permet de préférer le choix des quasi-humains, par rapport aux quasi-humains? Une telle justification fait défaut dans le contexte de l’argument. À ce stade, il s’avère que l’argument original de SA comporte un biais qui conduit au choix préférentiel des quasi-humains, et à la conclusion alarmante qui lui est associée. Cette remarque étant faite, il convient désormais d’envisager le problème sous une perspective plus large encore, en prenant en considération d’autres types possibles de simulations.

4. Le problème de la classe de référence : le cas des simulations grossières

Le problème de la classe de référence dans SA porte, ainsi que cela a été mentionné plus haut, sur la nature-même et le type des simulations mises en oeuvre dans l’argument. Ce problème se limite-t-il au choix préférentiel, au niveau de l’argument original, des simulations non-conscientes, au détriment du choix alternatif des simulations conscientes, qui correspondent à des simulations très sophistiquées d’humains, capables de créer l’illusion, mais dotées de la conscience qu’elles sont elles-mêmes des simulations ? Il apparaît que non. En effet, comme cela a été évoqué plus haut, on peut également concevoir d’autres types de simulations pour lesquelles l’argument fonctionne également, mais qui se révèlent d’une nature quelque peu différente. En particulier, on peut concevoir que les post-humains conçoivent et implémentent des simulations identiques à celles de l’argument original, mais qui ne présentent toutefois pas un caractère aussi parfait. Une telle situation présente un caractère tout à fait vraisemblable et ne présente pas les inconvénients d’ordre éthique qui pourraient accompagner les simulations indiscernables mises en scène dans l’argument original. Le choix de réaliser ce type de simulations pourrait résulter du niveau technologique nécessaire, ou bien de choix délibérés et pragmatiques, destinés à faire économiser du temps et des ressources. On peut ainsi concevoir différents degrés dans la réalisation d’un tel type de simulations. Il pourrait s’agir par exemple de simulations de très bonne qualité dont nos scientifiques actuels ne pourraient déterminer la nature artificielle qu’après, par exemple, dix années de recherche. Mais de manière alternative, de telles simulations pourraient être de qualité moyenne, voire plutôt grossières, par rapport aux simulations quasiment indiscernables évoquées plus haut. Pour les besoins de la présente discussion, nous appellerons toutefois simulations grossières l’ensemble de cette catégorie de simulations.

Quelles sont donc les conséquences sur SA de la prise en compte d’une classe de référence qui s’assimile à des simulations grossières ? Dans de telles circonstances, un grand nombre de telles simulations seraient détectables par nous humains. Dans ce cas, la conséquence de premier niveau fondée sur la disproportion humains/simulations s’applique toujours, de la même manière que pour l’argument original. En revanche, la conclusion de second niveau fondée sur l’auto-applicabilité ne s’applique plus désormais. Nous ne pouvons plus conclure désormais que ‘nous’ sommes des simulations, puisqu’en présence de telles simulations, nous nous apercevrions rapidement qu’il s’agit d’humains simulés et non d’humains réels. Aussi, dans un tel cas, il s’avère que la conclusion alarmante inhérente à la version originale de SA et fondée sur l’auto-applicabilité ne s’applique plus désormais. Une conclusion rassurante s’y substitue en effet, fondée sur le fait que nous humains n’appartenons pas à ce type de simulations.

À ce stade, il apparaît que SA, dans sa version originale, opte pour le choix préférentiel de simulations très sophistiquées, indétectables par nous autres humains et non-conscientes de leur nature de simulation. Mais ainsi que cela vient d’être évoqué, on peut concevoir d’autres types de simulations, de nature plus grossière, pour lesquelles l’argument s’applique également. Jusqu’à quel niveau de simulation détectable peut-on aller ? Doit-on aller jusqu’à inclure dans la classe de référence, à un niveau d’extension plus élevé, des simulations assez grossières, telles que par exemple des versions améliorées des simulations que nous sommes d’ores et déjà capables de réaliser à l’aide d’images de synthèse ? Dans ce cas, cela conduit à une formulation quelque peu différente de l’argument orignal, car nous pouvons alors assimiler la classe des post-humains aux humains qui vivront sur Terre dans dix ans, voire dans un an, ou même—à un niveau d’extension plus grand encore—dans un mois. Dans cas, la disjonction (1) selon laquelle les humains ne parviendront pas jusqu’à cette époque ne vaut plus, puisqu’un tel niveau technologique a d’ores et déjà été atteint. De même, la disjonction (2) n’a plus non plus de raison d’être, puisque nous réalisons déjà de telles simulations grossières. Ainsi, il ne subsiste dans ce cas que la disjonction (3), qui constitue alors la proposition unique qui sous-tend l’argument et constitue la conclusion de premier niveau de SA, selon laquelle le nombre des humains simulés excédera largement celui des humains authentiques. Dans ce cas, il s’ensuit bien, de manière identique à l’argument original, la conclusion de premier niveau selon laquelle le nombre des quasi-humains+ excédera largement le nombre des humains authentiques (la disproportion). Mais là aussi, il ne s’ensuit plus désormais la conclusion de second niveau selon laquelle ‘nous’ sommes actuellement des quasi-humains+ (l’auto-applicabilité). Cette dernière ne s’applique plus à nous désormais et une conclusion de nature rassurante s’y substitue, puisque que nous avons clairement conscience de ne pas être de telles simulations grossières.

5. Le problème de la classe de référence : le cas des cyborgs

Ainsi que cela a été évoqué plus haut, une autre question qui se pose est celle de savoir si la classe de référence peut être étendue aux cyborgs et en particulier à cette catégorie de cyborgs qui sont indiscernables des humains. On peut en effet concevoir différents types de cyborgs, allant de ceux pour lesquels quelques parties du corps ont été remplacées par des organes de synthèse de substitution ou plus performants, à ceux pour lesquels la quasi-totalité des organes—y compris le cerveau—a été remplacée. A priori, une telle classe entre également dans le champ de l’argument. Ici, l’argument s’applique naturellement aux cyborgs élaborés, indiscernables des humains, pour lesquels une grande partie des organes d’origine ont été remplacés ou transformés. En particulier, les cyborgs pour lesquels une partie du cerveau a été remplacée par un uploadpartiel ou non—entre naturellement dans le champ de l’argument. Les uploads partiels sont ceux pour lesquels une partie seulement des données du cerveau a été remplacée par un upload. De même, on peut imaginer de nombreux types d’uploads de ce genre : ainsi des uploads qui reconstituent la mémoire en restaurant les événements oubliés peuvent être envisagés. Ils peuvent se révéler utiles non seulement pour les personnes en bonne santé, mais également pour celles qui souffrent de maladies dans lesquelles les fonctions de la mémoire sont altérées. On peut concevoir que de tels types d’uploads partiels pourront être mis en œuvre dans un futur plus ou moins proche (Moravec 1998, Kurzweil 2005, De Garis et al. 2010). Et de la même manière que pour l’argument original, on peut concevoir que des quantités très grandes de ces uploads puissent être réalisées par les moyens informatiques. De manière générale, il s’avère que la discussion sur l’inclusion des cyborgs au sein de la classe de référence de SA possède son importance, car si l’on considère la classe des cyborgs dans un sens étendu, nous sommes déjà pratiquement tous des cyborgs. Si l’on considère en effet que des organes ou des parties du corps humains ont été remplacés ou améliorés afin qu’ils fonctionnent correctement font de nous des cyborgs, tel est aujourd’hui déjà le cas, compte tenu de la généralisation des dents synthétiques, pacemakers, prothèses, etc. Ainsi la question se trouve-t-elle posée de savoir jusqu’à quel degré on peut inclure certains types de cyborgs dans le champ de l’argument.

Quel serait donc l’effet sur SA de la prise en compte de la classe des cyborgs partiels, si l’on se place à un tel degré d’extension ? De même que pour les simulations grossières, il s’avère que la disjonction (1) selon laquelle les humains ne parviendront pas jusqu’à cette époque ne vaut plus alors, puisqu’un tel palier technologique est d’ores et déjà atteint. De manière identique, la disjonction (2) ne se justifie plus non plus, puisque dans un tel contexte, nous sommes déjà quasiment tous de tels cyborgs partiels. Ainsi, il ne subsiste dans ce cas que la disjonction (3) en tant que proposition unique, mais qui se présente toutefois sous une forme différente de celle de l’argument original. En effet, la conséquence de premier niveau fondée sur la disproportion humains/simulations s’applique ici également, de la même manière que pour l’argument original. En outre, et c’est là une différence importante, la conclusion de second niveau fondée sur l’auto-applicabilité s’applique également, puisque nous pouvons en conclure que ‘nous’ sommes également, dans ce sens étendu, des simulations. En revanche, il ne s’ensuit plus la conclusion alarmante, qui est celle de l’argument original et qui se manifeste à un troisième niveau, que nous sommes des simulations non-conscientes, puisque le fait que nous soyons en ce sens des simulations n’implique pas ici que nous soyons trompés sur notre identité première. Ainsi s’ensuit-il finalement, à la différence de l’argument orignal, une conclusion rassurante : nous sommes des simulations, qui sont elles-mêmes tout à fait conscientes de leur propre nature de cyborgs partiels.

Ce qui précède montre également qu’en examinant SA avec attention, on constate que l’argument recèle une seconde classe de référence. Cette seconde classe de référence est celle des posthumains. Qu’est-ce donc qu’un post-humain ? Doit-on assimiler cette classe aux civilisations très largement supérieures à la nôtre, à celles qui évolueront au XXVème siècle ou bien au XLIIIème siècle ? Les descendants de notre actuelle race humaine qui vivront au XXIIème siècle doivent-ils être comptés parmi les post-humains ? Le fait que des évolutions importantes liées à l’accroissement de l’intelligence humaine (Moravec 1998, Kurzweil 2005) puissent survenir dans un futur plus ou moins proche, constitue notamment un argument qui milite dans ce sens. Mais doit-on aller jusqu’à inclure les descendants des humains actuels qui vivront sur Terre dans 5 ans ? De telles questions sont posées et nécessitent une réponse. La question de savoir comment on doit définir les post-humains, constitue ainsi également un élément du problème de la classe de référence de SA. En tout état de cause, la définition de la classe des post-humains apparaît étroitement liée à celle des simulations. Car si l’on s’intéresse, dans un sens étendu, à des cyborgs à peine plus évolués que nous le sommes dans un certain sens, alors les post-humains peuvent être assimilés à la prochaine génération d’humains. Il en va de même si l’on considère des simulations grossières améliorées par rapport à celles que nous sommes actuellement capables de produire. En revanche, si l’on considère, dans un sens plus restrictif, des simulations d’humains complètement indiscernables pour notre humanité actuelle, il convient alors de s’intéresser à des post-humains d’une époque nettement plus lointaine. En tout état de cause, il apparaît ici que la classe de référence des post-humains, ainsi que la classe des simulations à laquelle elle est associée, peut être choisie à différentes niveaux de restriction ou d’extension.

6. Les différents niveaux de conclusion selon la classe de référence choisie

Finalement, la discussion qui précède met l’accent sur le fait que si on considère SA à la lumière du problème de la classe de référence qui lui est inhérente, il existe en réalité plusieurs niveaux dans la conclusion de SA : (C1) la disproportion ; (C2) l’auto-applicabilité ; (C3) la non-conscience (le fait inquiétant que nous soyons trompés, dupés sur notre identité première). En fait, la discussion précédente montre que (C1) est vrai quelle que soit la classe de référence choisie (par restriction ou par extension) : les quasi-humains, les quasi-humains+, les simulations grossières et les simulations de type cyborg. En outre, (C2) est également vrai pour la classe de référence originale des quasi-humains et pour celle des simulations de type cyborg, mais se révèle toutefois faux pour la classe des quasi-humains+ et aussi pour celle des simulations grossières. Enfin, (C3) est vrai pour la classe de référence originale des quasi-humains, mais se révèle faux pour les quasi-humains+, les simulations grossières et les simulations de type cyborg. Ces trois niveaux de conclusion sont représentés sur le tableau ci-dessous :

niveauconclusioncasquasi-humainsquasi-humains+simulations grossièressimulations de type cyborg
C1la proportion des humains simulés excédera largement celle des humains (disproportion)C1Avraivraivraivrai
la proportion des humains simulés n’excédera pas largement celle des humainsC1Āfauxfauxfauxfaux
C2nous sommes très probablement des simulations (auto-applicabilité)C2Avraifauxfauxvrai
nous ne sommes très probablement pas des simulationsC2Āfauxvraivraifaux
C3nous sommes des simulations inconscientes de leur nature de simulation (non-conscience)C3Avraifauxfauxfaux
nous ne sommes pas des simulations inconscientes de leur nature de simulationC3Āfauxvraivraivrai

Figure 1. Les différents niveaux de conclusion dans SA

ainsi que sur l’arborescence suivante :

Figure 2. Arbre des différents niveaux de conclusion de SA

Alors-même que la conclusion originale de SA laisse penser qu’il n’existe qu’un seul niveau de conclusion, il s’avère cependant, ainsi que cela vient d’être mis en lumière, qu’il existe en réalité plusieurs niveaux de conclusion dans SA, dès lors qu’on examine l’argument selon une perspective plus large, à la lumière du problème de la classe de référence. La conclusion de l’argument original est elle-même inquiétante et alarmante, en ce sens qu’elle conclut à une probabilité beaucoup plus forte que nous ne l’avions imaginé a priori, que nous soyons des humains simulés à leur insu. Une telle conclusion résulte du chemin C1-C1A-C2-C2A-C3-C3A de l’arbre ci-dessus. Cependant, l’analyse qui précède montre que selon la classe de référence choisie, des conclusions de nature très différente peuvent être inférées par l’argument de la simulation. Ainsi, une conclusion de nature tout à fait différente est associée au choix de la classe de référence des quasi-humains+, mais aussi à celle des simulations grossières. La conclusion qui en résulte est que nous ne sommes pas de telles simulations (C2Ā). Cette dernière conclusion est associée au chemin C1-C1A-C2-C2Ā dans l’arbre ci-dessus. Enfin, une autre conclusion possible, elle-même associée au choix de la classe des simulations de type cyborg, est que nous faisons partie d’une telle classe de simulation, mais que nous en avons conscience et que cela ne présente donc rien d’inquiétant (C3Ā). Cette dernière conclusion est représentée par le chemin C1-C1A-C2-C2A-C3-C3Ā.

L’analyse qui précède met finalement en lumière ce qui pêche dans la version originale de SA. L’argument original focalise en effet sur la classe des simulations non-conscientes de leur propre nature de simulation. Il s’ensuit la succession de conclusions selon lesquelles il existera une plus grande proportion d’humains simulés que d’humains authentiques (C1A), que nous faisons partie des humains simulés (C2A) et finalement que nous sommes, plus probablement que nous ne l’aurions imaginé a priori, des humains simulés non-conscients de l’être (C3A). Cependant, ainsi que cela a été évoqué plus haut, la notion-même de simulation d’humains—elle-même associée à la classe des post-humains—se révèle ambiguë, et une telle classe peut en réalité être définie de différentes manières, compte tenu qu’il n’existe pas, dans SA, un critère objectif permettant de choisir une telle classe d’une manière qui ne soit pas arbitraire. En effet, on peut choisir la classe de référence par restriction, en identifiant les simulations à des quasi-humains, ou à des quasi-humains; dans ce cas, les post-humains sont ceux auxquels se réfère l’argument orignal, d’une époque beaucoup plus avancée que la nôtre. En revanche, si on se place à un certain niveau d’extension, les simulations s’assimilent à des simulations moins parfaites que celles de l’argument original, ainsi que celles de type cyborg comportant des uploads évolués ; dans un tel cas, les post-humains associés sont ceux d’une époque moins éloignée. Enfin, si on effectue le choix de la classe de référence à un niveau plus grand d’extension, les simulations sont des simulations grossières, à peine meilleures que nous sommes actuellement capables de réaliser, ou bien des simulations de type cyborgs avec un degré d’intégration de parties simulées légèrement supérieur à celui que nous connaissons actuellement ; dans un tel cas, la classe des post-humains associée est celle des humains qui nous succéderont d’ici quelques années. On le voit, on peut effectuer le choix de la classe de référence qui sous-tend SA à différents niveaux de restriction ou d’extension. Mais selon que la classe sera choisie à tel ou tel niveau de restriction ou d’extension, une conclusion tout à fait différente s’ensuivra. Ainsi, le choix par restriction de simulations parfaites et non-conscientes de leur nature de simulation, comme le fait l’argument original, conduit à une conclusion inquiétante. En revanche, le choix à un niveau d’extension un peu plus grand, de simulations parfaites mais conscientes de leur nature de simulation, conduit à une conclusion rassurante. Et de même, le choix, à un niveau d’extension plus grand encore, des simulations grossières ou des simulations de type cyborg, entraîne également une conclusion rassurante. Ainsi, l’analyse qui précède montre que dans la version originale de SA, le choix se porte de manière préférentielle, par restriction, sur la classe de référence des quasi-humains, à laquelle est associée une conclusion inquiétante, alors-même qu’un choix par extension, prenant en compte les quasi-humains+, les simulations grossières, les simulations de type cyborg, etc., conduit à une conclusion rassurante. Finalement, le choix préférentiel dans l’argument original de la classe des quasi-humains, apparaît ainsi comme un choix arbitraire que rien ne vient justifier, alors-même que d’autres choix possèdent une égale légitimité. Car l’énoncé de SA ne comporte aucun élément objectif permettant d’effectuer le choix de la classe de référence d’une manière non-arbitraire. Dans ce contexte, la conclusion inquiétante associée à l’argument original apparaît également comme une conclusion arbitraire, alors-même qu’il existe plusieurs autres classes de référence qui possèdent un degré égal de pertinence vis-à-vis de l’argument lui-même, et desquelles découlent une conclusion tout à fait rassurante3.


Références

Bostrom, N. (2003) Are You a Living in a Computer Simulation?, Philosophical Quarterly, 53, 243-55

Bostrom, N. (2005) Reply to Weatherson, Philosophical Quarterly, 55, 90-97

Bostrom, N. (2006) ‘How long before superintelligence?’, Linguistic and Philosophical Investigations, 5-1, 11—30

De Garis, H.D., Shuo, C., Goertzel, B., Ruiting, L. (2010) A world survey of artificial brain projects, part i: Large-scale brain simulations, Neurocomputing, 74(1-3), 3-29

Eckhardt, W. (1993) ‘Probability Theory and the Doomsday Argument’, Mind, 102, 483-88

Eckhardt, W. (1997) ‘A Shooting-Room View of Doomsday’, Journal of Philosophy, 94, 244-259

Eckhardt, W. (2013) Paradoxes in probability Theory, Dordrecht, New York : Springer

Franceschi, P. (2009) A Third Route to the Doomsday Argument, Journal of Philosophical Research, 34, 263-278, traduction en français

Franceschi, P. (2014) Eléments d’un contextualisme dialectique, dans Liber Amicorum Pascal Engel, édité par J. Dutant, D. Fassio & A. Meylan, 581-608, English translation under the title Elements of Dialectical Contextualism, cogprints.org/9225

Kurzweil, R. (2000) The Age of Spiritual Machines: When Computers Exceed Human Intelligence, New York & London: Penguin Books

Kurzweil, R. (2005) The Singularity is Near, New York : Viking Press

Moravec, H. (1998) When will computer hardware match the human brain?, Journal of Evolution and Technology, vol. 1

Sandberg, A & Bostrom, N. (2008) Whole Brain Emulation: a Roadmap, Technical Report #2008-3, Future of Humanity Institute, Oxford University

1 William Eckhardt (2013, p. 15) considère que—de manière identique à l’argument de l’Apocalypse (Eckhardt 1993, 1997, Franceschi 2009)— le problème inhérent à SA provient de l’usage de la rétro-causalité et du problème lié à la définition de la classe de référence : ‘if simulated, are you random among human sims? hominid sims? conscious sims?‚’.

2 Nous laisserons de côté ici la question de savoir si l’on doit prendre en compte un nombre infini d’humains simulés. Tel pourrait être le cas si le niveau ultime de réalité était abstrait. Dans ce cas, la classe de référence pourrait inclure des humains simulés qui s’identifient, par exemple, à des matrices de très grands nombres entiers. Mais Bostrom répond à une telle objection dans sa FAQ (www.simulation-argument.com/faq.html) et indique que dans ce cas, les calculs ne valent plus (le dénominateur est infini) et le ratio n’est pas défini. Nous laisserons donc de côté cette hypothèse, en concentrant notre argumentation sur ce qui constitue le cœur de SA, c’est-à-dire le cas où le nombre de simulations d’humains est fini.

3 La présente analyse constitue une application directe à l’argument de la Simulation de la forme de contextualisme dialectique décrit dans Franceschi (2014).

Une troisième voie pour l’argument de l’Apocalypse

Une troisième voie pour l’argument de l’Apocalypse

Paul Franceschi

Université de Corse

à paraître dans le Journal of Philosophical Research

Dans ce qui suit, je m’attacherai à présenter une solution au problème posé par l’argument de l’Apocalypse (DA, dans ce qui suit). La solution ainsi décrite constitue une troisième voie, par rapport à d’une part, l’approche qui est celle des promoteurs de DA (Leslie 1993, 1996) et d’autre part, la solution préconisée par ses détracteurs (Eckhardt 1993, 1997 ; Sowers 2002).1

1. L’argument de l’Apocalypse et le modèle de Carter-Leslie

Pour les besoins de la présente discussion, il convient tout d’abord de présenter brièvement DA. Cet argument peut être décrit comme un raisonnement qui conduit à un décalage bayesien, à partir d’une analogie entre ce qui a été dénommé l’expérience des deux urnes (two-urn case2) et la situation humaine correspondante.

Considérons tout d’abord, l’expérience des deux urnes (adapté de Bostrom 1997) :

L’expérience des deux urnes Une urne3 opaque se trouve devant vous. Vous savez qu’elle contient soit 10, soit 1000 boules numérotées. Une pièce équilibrée a en effet été lancée au temps T0 et si la pièce est tombée sur pile, alors 10 boules ont été placées dans l’urne ; en revanche, si la pièce est tombée sur face, ce sont 1000 boules qui ont été placées dans l’urne. Les boules sont numérotées 1, 2, 3, …. Vous formulez alors les hypothèses Hpeu (l’urne ne contient que 10 boules) et Hbeaucoup (l’urne contient 1000 boules) avec les probabilités initiales P(Hpeu) = P(Hbeaucoup) = 1/2.

Informé de tout ce qui précède, vous tirez au temps T1 une boule au hasard dans l’urne. Vous obtenez ainsi la boule n° 5. Vous vous attachez à estimer le nombre de boules qui étaient contenues en T0 dans l’urne. Vous concluez alors à un décalage bayesien vers le haut en faveur de l’hypothèse Hpeu.

L’expérience des deux urnes constitue une application non controversée du théorème de Bayes. Elle est basée sur les deux hypothèses concurrentes suivantes :

(H1peu)l’urne contient 10 boules
(H2beaucoup)l’urne contient 1000 boules

et les probabilités initiales correspondantes : P(H1) = P(H2) = 1/2. En prenant en compte le fait que E dénote l’élément matériel avéré selon lequel la boule tirée au hasard porte le numéro 5 et que P(E|H1) = 1/10 et P(E|H2) = 1/1000, un décalage bayesien vers le haut s’ensuit, par application directe du théorème de Bayes. Par conséquent, les probabilités a posteriori sont telles que P'(H1) = 0.99 et P'(H2) = 0.01.

Considérons, en second lieu, la situation humaine correspondant à DA. En s’intéressant au nombre total d’humains que comptera finalement l’espèce humaine, on considère les deux hypothèses concurrentes suivantes :

(H3peu)le nombre total des humains ayant jamais existé s’élèvera à 1011 (Apocalypse proche)
(H4beaucoup)le nombre total des humains ayant jamais existé s’élèvera à 1014 (Apocalypse lointaine)

Il apparaît maintenant que chaque humain possède son propre rang de naissance, et que le votre, par exemple, est environ 60×109. Supposons également, par souci de simplicité, que les probabilités a priori soient telles que P(H3) = P(H4) = 1/2. Maintenant, selon Carter et Leslie, la situation humaine correspondant à DA est analogue au modèle des deux urnes.4 Si l’on dénote par E le fait que notre rang de naissance est 60×109, une application du théorème de Bayes, en prenant en compte le fait que P(E|H3) = 1/1011 et que P(E|H4) = 1/1014, conduit à un important décalage bayesien en faveur de l’hypothèse d’une Apocalypse prochaine, soit P'(H3) = 0.999. L’importance du décalage bayesien qui résulte de ce raisonnement, associé à une situation très inquiétante quant au devenir de l’humanité, à partir de la seule prise en compte de notre rang de naissance, apparaît contraire à l’intuition. En soi, ceci constitue un problème, qui nécessite qu’on s’attache à lui trouver une solution.

Dans un tel contexte, il apparaît qu’une solution à DA se doit de présenter les caractéristiques suivantes. En premier lieu, elle doit indiquer dans quelle mesure la situation humaine correspondant à DA est analogue au modèle des deux urnes ou éventuellement, à un modèle alternatif, dont les caractéristiques sont à préciser. En second lieu, une telle solution à DA doit indiquer dans quelle mesure le ou les modèles en analogie avec la situation humaine correspondant à DA se trouvent associés à une situation effrayante pour l’avenir de l’humanité.

Dans ce qui suit, je m’attacherai à présenter une solution pour DA. Afin d’élaborer cette dernière, il sera nécessaire tout d’abord de construire l’espace des solutions de DA. Une telle construction constitue une tâche non triviale, car elle nécessite la prise en considération non seulement de plusieurs objections qui ont été soulevées contre DA, mais aussi du problème de la classe de référence. Au sein de cet espace des solutions, les solutions préconisées par les défenseurs ainsi que par les détracteurs de DA, prennent naturellement place. Je montrerai finalement qu’au sein de l’espace des solutions ainsi constitué, il y a place pour une troisième voie, qui constitue une solution par essence différente de celle offerte par les défenseurs et les détracteurs de DA.

2. Échec d’un modèle alternatif fondé sur l’objection incrémentale d’Eckhardt et al.

DA est basé sur la mise en correspondance d’un modèle probabiliste – le modèle des deux urnes – avec la situation humaine correspondant à DA. Afin de construire l’espace des solutions pour DA, il convient de s’attacher à définir les modèles qui constituent des alternatives au modèle des deux urnes, et qui peuvent également être mis en correspondance avec la situation humaine correspondant à DA. Plusieurs modèles alternatifs ont notamment été décrits par les opposants à DA. Cependant, pour des raisons qui deviendront claires un peu plus loin, tous ces modèles ne peuvent être retenus valablement en tant que modèle alternatif au modèle des deux urnes, et prendre ainsi place au sein de l’espace des solutions pour DA. Il convient ainsi de distinguer parmi ces modèles proposés par les détracteurs de DA, ceux qui ne constituent pas d’authentiques modèles alternatifs, et ceux qui peuvent légitimement être intégrés au sein de l’espace des solutions de DA.

Un certain nombre d’objections à DA ont tout d’abord été formulées par William Eckhardt (1993, 1997). Pour les besoins de la présente discussion, il convient de distinguer deux objections, parmi celles qui ont été soulevées par Eckhardt, et que j’appellerai respectivement : l’objection incrémentale et l’objection diachronique. À chacune de ces deux objections est associé une expérience qui se propose de constituer un modèle alternatif au modèle des deux urnes.

Commençons tout d’abord par l’objection incrémentale, mentionnée dans Eckhardt (1993, 1997) et le modèle alternatif qui lui est associé. Récemment, George Sowers (2002) et Elliott Sober (2003) s’en sont fait l’écho. Selon cette objection, l’analogie avec l’urne qui se trouve à l’origine de DA, est mal fondée. En effet, dans l’expérience des deux urnes, le numéro de la boule est choisi au hasard. En revanche, soulignent ces auteurs, dans le cas de la situation humaine correspondant à DA, notre rang de naissance n’est pas choisi au hasard, mais se trouve en fait indexé sur la position temporelle correspondante. Par conséquent, souligne Eckhardt, l’analogie dans le modèle des deux urnes n’est pas fondée et l’ensemble du raisonnement s’en trouve invalidé. Sober (2003) développe une argumentation similaire,5 en soulignant qu’aucun mécanisme ayant pour objet d’assigner de manière aléatoire une position temporelle aux êtres humains, ne peut être mis en évidence. Enfin, une telle objection a récemment été ravivée par Sowers. Ce dernier a mis l’accent sur le fait que le rang de naissance de chaque humain n’est pas aléatoire, car il se trouve indexé sur la position temporelle correspondante.

Selon le point de vue développé par Eckhardt et al., la situation humaine correspondant à DA n’est pas analogue à l’expérience des deux urnes, mais plutôt à un modèle alternatif, qui peut être appelé le distributeur d’objets consécutifs (consecutive token dispenser). Le distributeur d’objets consécutifs est un dispositif, décrit à l’origine par Eckhardt,6 qui éjecte à intervalles réguliers des boules numérotées consécutivement : “(…) suppose on each trial the consecutive token dispenser expels either 50 (early doom) or 100 (late doom) consecutively numbered tokens at the rate of one per minute”. Un dispositif similaire – appelons-le le distributeur de boules numérotées – est également mentionné par Sowers, où les boules sont éjectées de l’urne et numérotées selon l’ordre de leur éjection, à l’intervalle régulier d’une par minute :7

There are two urns populated with balls as before, but now the balls are not numbered. Suppose you obtain your sample with the following procedure. You are equipped with a stopwatch and a marker. You first choose one of the urns as your subject. It doesn’t matter which urn is chosen. You start the stopwatch. Each minute you reach into the urn and withdraw a ball. The first ball withdrawn you mark with the number one and set aside. The second ball you mark with the number two. In general, the nth ball withdrawn you mark with the number n. After an arbitrary amount of time has elapsed, you stop the watch and the experiment. In parallel with the original scenario, suppose the last ball withdrawn is marked with a seven. Will there be a probability shift? An examination of the relative likelihoods reveals no.

Ainsi, en vertu du point de vue défendu par Eckhardt et al., la situation humaine correspondant à DA n’est pas en analogie avec l’expérience des deux urnes, mais bien avec le distributeur de boules numérotées. Et ce dernier modèle conduit à laisser inchangées les probabilités initiales.

L’objection incrémentale d’Eckhardt et al. se trouve basée sur une disanalogie. En effet, la situation humaine correspondant à DA présente une nature temporelle, car les rangs de naissance sont successivement attribués aux humains en fonction de la position temporelle correspondant à leur apparition sur Terre. Ainsi, la situation correspondante prend place, par exemple, de T1 à Tn, où 1 et n sont respectivement les rang de naissance du premier et du dernier humain. En revanche, l’expérience des deux urnes se révèle atemporelle, car au moment où la boule est tirée au hasard, toutes les boules sont déjà présentes dans l’urne. L’expérience des deux urnes prend ainsi place à un moment donné T0. Il apparaît ainsi que l’expérience des deux urnes consiste en un modèle atemporel, alors que la situation correspondant à DA correspond à un modèle temporel. Et ceci interdit, soulignent Eckhardt et al., de considérer la situation correspondant à DA et l’expérience des deuxurnes comme isomorphes.8

À ce stade, il s’avère que la disanalogie atemporelle-temporelle constitue bien une réalité et qu’elle ne peut être niée. Toutefois, ceci ne constitue pas un obstacle insurmontable pour DA. On le verra en effet, il est possible de mettre en analogie la situation humaine correspondant à DA, avec une variation temporelle du modèle des deux urnes. Il suffit pour cela de considérer l’expérience suivante, que l’on peut dénommer l’expérience des deux urnes incrémentale (formellement, l’expérience des deux urnes++) :

L’expérience des deux urnes++ Une urne opaque se trouve devant vous. Vous savez qu’elle contient soit 10, soit 1000 boules numérotées. Une pièce équilibrée a en effet été lancée au temps T0 et si la pièce est tombée sur pile, alors l’urne ne contient que 10 boules ; en revanche, si la pièce est tombée sur face, l’urne contient ces mêmes 10 boules plus 990 boules supplémentaires, soient 1000 boules au total. Les boules sont numérotées 1, 2, 3, …. Vous formulez alors les hypothèses Hpeu (l’urne ne contient que 10 boules) et Hbeaucoup (l’urne contient 1000 boules) avec les probabilités initiales P(Hpeu) = P(Hbeaucoup) = 1/2. Au temps T1, un dispositif tirera dans l’urne une boule au hasard, puis expulsera à chaque seconde une boule numérotée dans l’ordre croissant, de la boule n° 1 jusqu’au numéro de la boule tirée au hasard. À ce moment précis, le dispositif s’arrêtera.

Vous êtes informé de tout ce qui précède, et le dispositif expulse alors la boule n° 1 en T1, la boule n° 2 en T2, la boule n° 3 en T3, la boule n° 4 en T4, puis la boule n° 5 en T5. Le dispositif s’arrête alors. Vous vous attachez à estimer le nombre de boules qui étaient contenues en T0 dans l’urne. Vous concluez alors à un décalage bayesien vers le haut en faveur de l’hypothèse Hpeu.

On le voit, une telle variation constitue une adaptation simple du modèle des deux urnes original, avec l’ajout d’un mécanisme incrémental pour l’expulsion des boules. La nouveauté avec cette variation9 réside dans le fait que l’expérience présente maintenant un aspect temporel, puisque la sélection aléatoire est effectuée en T1 et que la boule tirée au hasard est finalement éjectée, par exemple, en T5.

À ce stade, il convient également d’analyser les conséquences de l’expérience des deux urnes++ sur l’analyse développée par Eckhardt et al. En effet, dans l’expérience des deux urnes++, le numéro de chacune des boules éjectées du dispositif est indexé sur le rang de leur expulsion. Par exemple, je tire la boule n°60000000000. Mais je sais également que la boule précédente était la boule n°59999999999 et que l’avant-dernière boule était la boule n°59999999998, etc. Cependant, cela ne m’empêche pas de raisonner de la même manière que dans l’expérience des deux urnes originale et de conclure à un décalage bayesien en faveur de l’hypothèse Hpeu. Dans ce contexte, l’expérience des deux urnes++ conduit à la conséquence suivante : le fait d’être indexé par rapport au temps n’implique pas que le numéro de la boule ne soit pas choisi de manière aléatoire. Ceci peut maintenant être confronté avec la thèse principale de l’objection incrémentale développée par Eckhardt et al., selon laquelle le rang de naissance de chaque humain n’est pas choisi de manière aléatoire, mais se révèle indexé sur la position temporelle correspondante. Sowers en particulier considère que la cause de DA réside dans le fait que le numéro correspondant au rang de naissance se trouve indexé par rapport au temps.10 Mais ce que l’expérience des deux urnes++ et l’analogie correspondante démontrent, c’est que notre rang de naissance peut être indexé par rapport au temps et se trouver néanmoins déterminé de manière aléatoire dans le contexte qui est celui de DA. Pour cette raison, le modèle du distributeur de boules numérotées proposé par Eckhardt et Sowers ne peut pas être pris en considération en tant que modèle alternatif au modèle des deux urnes, au sein de l’espace des solutions de DA.

3. Succès d’un modèle alternatif fondé sur l’objection diachronique de William Eckhardt

William Eckhardt (1993, 1997) expose également une autre objection à DA, que nous appellerons, pour les besoins de la présente discussion, l’objection diachronique. Cette dernière objection, on le verra, est basée sur un modèle alternatif à l’expérience des deux urnes, qui est différent de celui qui correspond à l’objection incrémentale. Eckhardt (1997, p. 256) souligne ainsi le fait qu’il est impossible d’effectuer une sélection aléatoire, dès lorsqu’il existe de nombreux individus qui ne sont pas encore nés au sein de la classe de référence correspondante : “How is it possible in the selection of a random rank to give the appropriate weight to unborn members of the population?”.

Cette seconde objection est potentiellement plus forte que l’objection incrémentale. Afin d’en évaluer la portée précise, il convient maintenant de la traduire en termes de modèle. Il apparaît que le modèle associé à l’objection diachronique d’Eckhardt peut être construit, à partir de la structure du modèle des urnes. La version correspondante, qui peut être dénommée l’expérience des deux urnes diachronique, est la suivante :

L’expérience des deux urnes diachronique Une urne opaque se trouve devant vous. Vous savez qu’elle contient soit 10, soit 1000 boules numérotées. Une pièce équilibrée a en effet été lancée au temps T0. Si la pièce est tombée sur pile, 10 boules ont alors été placées dans l’urne ; en revanche, si la pièce est tombée sur face, 10 boules ont également été placées dans l’urne au temps T0, mais 990 boules supplémentaires seront ensuite ajoutées dans l’urne au temps T2, portant ainsi le nombre total de boules finalement contenues dans l’urne à 1000. Les boules sont numérotées 1, 2, 3, …. Vous formulez alors les hypothèses Hpeu (l’urne ne contient finalement que 10 boules) et Hbeaucoup (l’urne contient finalement 1000 boules) avec les probabilités initiales P(Hpeu) = P(Hbeaucoup) = 1/2.

Informé de tout ce qui précède, vous tirez au temps T1 une boule au hasard dans l’urne. Vous obtenez ainsi la boule n° 5. Vous vous attachez à estimer le nombre de boules qui seront finalement contenues dans l’urne en T2. Vous concluez alors que les probabilités initiales demeurent inchangées.

À ce stade, il apparaît que le protocole qui vient d’être décrit rend justice à l’idée forte d’Eckhardt selon laquelle il est impossible d’effectuer une sélection aléatoire lorsqu’il existe de nombreux membres au sein de la classe de référence qui ne sont pas encore nés. Dans le modèle des deux urnes diachronique, les 990 boules qui sont éventuellement (si la pièce tombe sur face) ajoutées en T2 représentent en effet ces membres non encore nés. Dans une telle situation, il serait tout à fait erroné de conclure à un décalage bayesien en faveur de l’hypothèse Hpeu. En revanche, ce que l’on peut inférer de manière rationnelle dans un tel cas, c’est que les probabilités initiales demeurent inchangées.

On peut constater en outre que la structure du protocole de l’expérience des deux urnes diachronique se révèle tout à fait similaire à celui de l’expérience des deux urnes originale (que nous appellerons désormais l’expérience des deux urnes synchronique). Ceci permet désormais d’effectuer aisément des comparaisons. On constate ainsi que si la pièce tombe sur pile : la situation est identique dans les deux expériences, synchronique et diachronique. En revanche, la situation est différente si la pièce tombe sur face : dans le modèle des deux urnes synchronique, les 990 boules supplémentaires sont déjà présentes dans l’urne en T0 ; à l’inverse, dans le modèle des deux urnes diachronique, les 990 boules supplémentaires sont ajoutées dans l’urne ultérieurement, c’est-à-dire en T2. On le voit ainsi, le modèle des deux urnes diachronique fondé sur l’objection diachronique d’Eckhardt mérite tout à fait de prendre sa place au sein de l’espace des solutions de DA.

4. Construction de l’espace des solutions préliminaire

Compte tenu de ce qui précède, nous sommes maintenant en position d’apprécier à quel point l’analogie qui sous-tend DA se révèle adéquate. Il apparaît en effet que deux modèles alternatifs pour modéliser l’analogie avec la situation humaine correspondant à DA se trouvent en concurrence : d’une part le modèle des deux urnes synchronique préconisé par les promoteurs de DA et d’autre part, le modèle des deux urnes diachronique, fondé sur l’objection diachronique d’Eckhardt. Il s’avère que ces deux modèles présentent une structure commune, ce qui permet ainsi d’effectuer des comparaisons11.

À ce stade, la question qui se pose est la suivante : la situation humaine correspondant à DA est-elle en analogie avec (a) le modèle des deux urnes synchronique, ou bien à (b) le modèle des deux urnes diachronique ? Afin d’y répondre, la question suivante s’ensuit : existe-t-il un critère objectif qui permette de choisir, de manière préférentielle, entre les deux modèles concurrents ? Il apparaît que non. En effet, ni Leslie ni Eckhardt ne présentent une motivation objective qui permette de justifier le choix du modèle qu’ils préconisent, et d’écarter le modèle alternatif. Leslie tout d’abord, défend l’analogie de la situation humaine correspondant à DA avec l’expérience de la loterie (ici, l’expérience des deux urnes synchronique). Mais parallèlement, Leslie reconnaît que DA est considérablement affaibli si notre univers est d’une nature indéterministe, c’est-à-dire si le nombre total d’humains qui existeront n’est pas encore fixé.12 Or il s’avère qu’une telle situation indéterministe correspond tout à fait au modèle des deux urnes diachronique. Car le protocole de cette expérience prend en compte le fait que le nombre total de boules qui seront finalement contenues dans l’urne, n’est pas connu au moment où le tirage aléatoire est effectué. On le voit finalement, Leslie accepte libéralement que l’analogie avec le modèle des deux urnes synchronique puisse ne pas prévaloir dans certaines circonstances indéterministes, où comme on l’a vu, ce serait alors le modèle des deux urnes diachronique qui s’appliquerait.

Parallèlement, une faiblesse dans le point de vue défendu par Eckhardt réside dans le fait qu’il rejette l’analogie avec l’expérience de la loterie (ici, l’expérience des deux urnes synchronique) dans tous les cas. Mais comment peut-on avoir la certitude qu’une analogie avec le modèle des deux urnes synchronique ne prévaut pas, au moins pour une situation particulière donnée ? Il apparaît ici que les éléments probants qui permettent d’écarter une telle hypothèse avec une certitude absolue, font défaut.

Résumons maintenant. Au sein de l’espace des solutions pour DA qui résulte de ce qui précède, il s’ensuit désormais que deux modèles concurrents peuvent convenir également pour modéliser la situation humaine correspondant à DA : le modèle des deux urnes synchronique de Leslie ou le modèle des deux urnes diachronique d’Eckhardt. À ce stade toutefois, il apparaît qu’aucun critère objectif ne permet à ce stade d’accorder la préférence à l’un ou l’autre de ces deux modèles. Dans ces circonstances, en l’absence d’éléments objectifs permettant d’effectuer un choix entre les deux modèles concurrents, nous sommes conduits à appliquer un principe d’indifférence, qui conduit à retenir les deux modèles comme globalement équiprobables. Nous attribuons ainsi (Figure 1), en vertu d’un principe d’indifférence, une probabilité P de 1/2 à l’analogie avec le modèle des deux urnes synchronique (associé à un scénario terrifiant), et une probabilité identique de 1/2 à l’analogie avec le modèle des deux urnes diachronique (associé à un scénario rassurant).

CasModèleT0T2PNature du scénario
1modèle des deux urnes synchronique1/2terrifiant
2modèle des deux urnes diachronique1/2rassurant

Figure 1.

Une telle approche revêt toutefois un caractère préliminaire, car afin d’attribuer une probabilité précise à chacune des situations inhérentes à DA, il est nécessaire de prendre en considération l’ensemble des éléments qui sous-tendent DA. Or il apparaît qu’un élément essentiel de DA n’a pas encore été pris en compte. Il s’agit du délicat problème de la classe de référence.

5. Le problème de la classe de référence

Commençons tout d’abord par rappeler le problème de la classe de référence (reference class problem).13 Sommairement, il s’agit du problème de la définition correcte des “humains”. De manière plus précise, le problème peut être ainsi énoncé : comment la classe de référence peut-elle être objectivement définie dans le contexte de DA ? Car une définition plus ou moins extensive ou restrictive de la classe de référence peut être utilisée. Une classe de référence définie de manière extensive inclurait par exemple des variétés quelque peu exotiques correspondant à des évolutions futures de notre humanité, possédant par exemple un quotient intellectuel moyen égal à 200, un double cerveau ou bien des capacités pour la causalité rétrograde. À l’inverse, une classe de référence définie de manière restrictive n’inclurait que les humains dont les caractéristiques sont très exactement celles de – par exemple – notre sous-espèce homo sapiens sapiens. Une telle définition exclurait ainsi l’espèce éteinte homo sapiens neandertalensis, de même qu’une éventuelle future sous-espèce telle qu’homo sapiens supersapiens. Pour mettre cela en adéquation avec notre actuelle taxonomie, la classe de référence peut être définie à différents niveaux qui correspondent respectivement au super-genre superhomo, au genre homo, à l’espèce homo sapiens, à la sous-espèce homo sapiens sapiens, etc. À ce stade, il apparaît qu’un critère objectif permettant de choisir le niveau correspondant d’une manière qui ne soit pas arbitraire, fait défaut.

La solution proposée par Leslie’s au problème de la classe de référence, exposée dans la réponse faite à Eckhardt (1993) et dans The End of the World (1996), est la suivante : on peut choisir la classe de référence plus ou moins comme on le souhaite, c’est-à-dire à n’importe quel niveau d’extension ou de restriction. Une fois ce choix effectué, il suffit d’ajuster en conséquence les probabilités initiales, et DA fonctionne à nouveau. La seule réserve énoncée par Leslie est que la classe de référence ne doit pas être choisie à un niveau extrême d’extension ou de restriction.14 Pour Leslie, le fait que chaque humain puisse appartenir à différentes classes, selon qu’elles sont définies de manière restrictive ou extensive, ne constitue pas un problème, puisque l’argument fonctionne pour chacune de ces classes. Dans ce cas, indique Leslie, un décalage bayesien s’ensuit quelque soit la classe de référence, choisie à un niveau raisonnable d’extension ou de restriction. Et Leslie illustre ce point de vue par une analogie avec une urne multicolore, à la différence de l’urne unicolore de l’expérience des deux urnes originale. Il considère ainsi une urne qui contient des boules de différentes couleurs, par exemple rouges et vertes. Une boule rouge est tirée au hasard dans l’urne. D’un point de vue restrictif, la boule constitue une boule rouge et il n’y a alors pas de différence avec le modèle des deux urnes. Mais d’un point de vue plus extensif, la boule constitue aussi une boule rouge ou verte.15 Selon Leslie, bien que les probabilités initiales soient différentes dans chaque cas, un décalage bayesien s’ensuit dans les deux cas.16 On le voit, le modèle des deux urnes synchronique peut aisément être adapté pour restituer l’essence du modèle multicolore de Leslie. Il suffit en effet de remplacer les boules rouges de l’expérience des deux urnes synchronique originale, par des boules rouges ou vertes. Le modèle bicolore qui en résulte est alors en tous points identique à l’expérience des deux urnes synchronique originale, et conduit à un décalage bayesien de même nature.

À ce stade, afin d’intégrer adéquatement le problème de la classe de référence au sein de l’espace des solutions pour DA, il reste encore à traduire le modèle des deux urnes diachronique en une version bicolore.

5.1 Le modèle des deux urnes diachronique bicolore

Dans l’expérience unicolore originale qui correspond au modèle des deux urnes diachronique, la classe de référence est celle des boules rouges. Il apparaît ici que l’on peut construire une variation bicolore, adaptée au traitement du problème de la classe de référence, où la classe pertinente est celle des boules rouges ou vertes. La variation bicolore correspondante est alors en tous points identique à l’expérience des deux urnes diachronique originale, à la seule différence que les 10 premières boules (1 à 10) sont rouges et que les 990 autres boules (11 à 1000) sont vertes. La variation correspondante est ainsi la suivante :

L’expérience des deux urnes diachronique bicolore Une urne opaque se trouve devant vous. Vous savez qu’elle contient soit 10, soit 1000 boules numérotées (consistant en 10 boules rouges et 990 boules vertes). Les boules rouges sont numérotées 1, 2, …, 9, 10 et les boules vertes 11, 12, .., 999, 1000. Une pièce équilibrée a en effet été lancée au temps T0. Si la pièce est tombée sur pile, 10 boules ont alors été placées dans l’urne ; en revanche, si la pièce est tombée sur face, 10 boules rouges ont également placées dans l’urne au temps T0, mais 990 boules vertes supplémentaires seront ensuite ajoutées dans l’urne au temps T2, portant ainsi le nombre total de boules contenues dans l’urne à 1000. Vous formulez alors les hypothèses Hpeu (l’urne ne contient finalement que 10 boules rouges ou vertes) et Hbeaucoup (l’urne contient finalement 1000 boules rouges ou vertes) avec les probabilités initiales P(Hpeu) = P(Hbeaucoup) = 1/2.

Informé de tout ce qui précède, vous tirez au temps T1 une boule au hasard dans l’urne. Vous obtenez ainsi la boule rouge n° 5. Vous vous attachez à estimer le nombre de boules rouges ou vertes qui seront finalement contenues dans l’urne en T2. Vous concluez alors que les probabilités initiales demeurent inchangées.

On le voit, la structure de cette variation bicolore est en tous points analogue à celle de la version unicolore de l’expérience des deux urnes diachronique. On considère en effet ici la classe des boules rouges ou vertes, en lieu et place de la classe des boules rouges originale. Et dans ce type de situation, il est rationnel de conclure de la même manière que dans la version unicolore originale de l’expérience des deux urnes diachronique que les probabilités initiales demeurent inchangées.

5.2 Non-exclusivité du modèle synchronique unicolore et du modèle diachronique bicolore

À l’aide des outils permettant d’appréhender le problème de la classe de référence, nous sommes désormais en mesure d’achever la construction de l’espace des solutions pour DA, en intégrant les éléments qui viennent d’être décrits. De manière préliminaire, nous avons attribué une probabilité de 1/2 à chacun des modèles des deux urnes unicolores -synchroniqueetdiachronique – en leur associant respectivement un scénario terrifiant et rassurant. Qu’en est-il désormais, compte tenu de la présence de modèles bicolores, permettant désormais d’appréhender le problème lié à la classe de référence ?

Avant d’évaluer l’impact du modèle bicolore sur l’espace des solutions de DA, il convient tout d’abord de définir comment s’effectue la mise en correspondance des modèles bicolores avec notre situation humaine actuelle. Pour cela, il suffit d’assimiler la classe des boules rouges à notre sous-espèce actuelle homo sapiens sapiens et la classe des boules rouges ou vertes à notre actuelle espèce homo sapiens. De même, on assimilera la classe des boules vertes à la sous-espèce homo sapiens supersapiens, une sous-espèce plus avancée que la notre, qui correspond à une évolution d’homo sapiens sapiens. Une situation de ce type se révèle très courante dans le processus évolutionnel qui régit les espèces. Compte tenu de ces éléments, nous sommes désormais en mesure d’établir la mise en relation des modèles probabilistes avec notre situation actuelle.

À ce stade, il convient de noter une importante propriété du modèle diachronique bicolore. En effet, il s’avère que ce dernier modèle est susceptible de se combiner avec un modèle des deux urnes synchronique unicolore. Supposons en effet qu’un modèle des deux urnes synchronique unicolore prévale : 10 boules ou 1000 boules rouges sont placées dans l’urne en T0. Mais cela n’exclut pas que des boules vertes soient également ajoutées dans l’urne en T2. Il apparaît ainsi que le modèle synchronique unicolore et le modèle diachronique bicolore ne sont pas exclusifs l’un de l’autre. Car dans une telle situation, un modèle des deux urnes synchronique unicolore prévaut pour la classe restreinte des boules rouges, tandis qu’un modèle diachronique bicolore s’applique à la classe étendue des boules rouges ou vertes. À ce stade, il apparaît que nous nous trouvons sur une troisième voie, d’essence pluraliste. Car le fait de mettre en correspondance la situation humaine correspondant à DA avec le modèle synchronique ou bien (de manière exclusive) le modèle diachronique, constituent bien des attitudes monistes. À l’inverse, le fait de reconnaître le rôle conjoint joué par chacun des modèles synchronique et diachronique, constitue l’expression d’un point de vue pluraliste. Dans ces circonstances, il s’avère nécessaire d’analyser l’impact sur l’espace des solutions de DA de la propriété de non-exclusivité qui vient d’être soulignée.

Compte tenu de ce qui précède, il apparaît que quatre types de situations doivent désormais être distingués, au sein de l’espace des solutions de DA. En effet, chacun des deux modèles unicolores initiaux – synchronique et diachronique – peut être associé à un modèle des deux urnes diachronique bicolore. Commençons ainsi par le cas (1) où le modèle synchronique unicolore s’applique. Dans ce cas, on est amené à distinguer deux types de situations : soit (1a) rien ne se passe en T2 et aucune boule verte n’est ajoutée dans l’urne en T2 ; soit (1b) 990 boules vertes sont ajoutées dans l’urne en T2. Dans le premier cas (1a) où aucune boule verte n’est ajoutée dans l’urne en T2, on a bien une disparition rapide de la classe des boules rouges. De même, on a une disparition corrélative de la classe des boules rouges ou vertes, puisqu’elle s’identifie ici avec la classe des boules rouges. Dans un tel cas, l’extinction rapide d’homo sapiens sapiens (les boules rouges) n’est pas suivie par l’apparition d’homo sapiens supersapiens (les boules vertes). Dans un tel cas, on observe l’extinction rapide de la sous-espèce homo sapiens sapiens et l’extinction corrélative de l’espèce homo sapiens (les boules rouges ou vertes). Un tel scénario, on doit le reconnaître, correspond à une forme d’Apocalypse qui présente un caractère tout à fait effrayant.

Considérons maintenant le second cas (1b) où nous sommes toujours en présence d’un modèle synchronique unicolore, mais où cette fois, des boules vertes sont également ajoutées dans l’urne en T2. Dans ce cas, 990 boules vertes s’ajoutent en T2 aux boules rouges initialement placées dans l’urne en T0. On a alors une disparition rapide de la classe des boules rouges, mais qui s’accompagne de la survivance de la classe des boules rouges ou vertes, compte tenu de la présence des boules vertes en T2. Dans ce cas (1b), on constate qu’un modèle synchronique unicolore se trouve combiné avec un modèle diachronique bicolore. Les deux modèles se révèlent ainsi compatibles, et non-exclusifs l’un de l’autre. Si l’on traduit cela en termes de troisième voie, on constate, en conformité avec l’essence pluraliste de cette dernière, que le modèle synchronique unicolore s’applique à la classe, restrictivement définie, des boules rouges, alors qu’un modèle diachronique bicolore s’applique également à la classe, définie de manière extensive, des boules rouges ou vertes. Dans ce cas (1b), l’extinction rapide d’homo sapiens sapiens (les boules rouges) est suivie par l’apparition de la sous-espèce humaine plus évoluée homo sapiens supersapiens (les boules vertes). Dans une telle situation, la classe restreinte homo sapiens sapiens se trouve éteinte, alors que la classe plus étendue homo sapiens (les boules rouges ou vertes) survit. Alors que le modèle synchronique unicolore s’applique à la classe restreinte homo sapiens sapiens, le modèle diachronique bicolore prévaut pour la classe plus étendue homo sapiens. Mais une telle caractéristique ambivalente a pour effet de priver l’argument original de la terreur qui est initialement associée avec le modèle synchronique unicolore. Et finalement, cela a pour effet de rendre DA inoffensif, en le privant de sa terreur originelle. En même temps, ceci laisse le champ à l’argument pour s’appliquer à une classe de référence donnée, mais sans ses conséquences effrayantes et contraires à l’intuition.

Dans le cas (1) on le voit, le traitement correspondant du problème de la classe de référence se révèle différent de celui préconisé par Leslie. Car Leslie considère que le modèle synchronique s’applique quelle que soit la classe de référence choisie. Mais la présente analyse conduit à un traitement différencié du problème de la classe de référence. Dans le cas (1a), le modèle synchronique prévaut et un décalage bayesien s’applique, de même que dans le traitement de Leslie, à la fois à la classe des boules rouges et à celle des boules rouges ou vertes. En revanche, dans le cas (1b), la situation est différente. Car si un modèle synchronique unicolore s’applique bien à la classe de référence restreinte des boules rouges et conduit à un décalage bayesien, il apparaît qu’un modèle diachronique bicolore s’applique alors à la classe de référence étendue des boules rouges ou vertes, qui conduit à laisser les probabilités initiales inchangées. Dans ce cas (1b), on le voit, la troisième voie conduit à un traitement pluraliste du problème de la classe de référence.

Envisageons maintenant la seconde hypothèse (2) où c’est le modèle diachronique unicolore qui prévaut. Dans ce cas, 10 boules rouges sont placées dans l’urne en T0, puis 990 autres boules rouges sont ajoutées dans l’urne en T2. De même que précédemment, on est conduit à distinguer deux hypothèses. Soit (2a) aucune boule verte n’est ajoutée dans l’urne en T2 ; soit (2b) 990 boules vertes sont également ajoutées à l’urne en T2. Dans le premier cas (2a), le modèle diachronique unicolore s’applique. Dans une telle situation (2a), aucune apparition d’une sous-espèce humaine plus évoluée telle qu’homo sapiens supersapiens ne se produit. Mais le scénario correspondant à un tel cas se révèle également tout à fait rassurant, puisque notre sous-espèce homo sapiens sapiens survit. Dans le second cas (2b), où 990 boules vertes sont ajoutées dans l’urne en T2, un modèle diachronique bicolore s’ajoute au modèle diachronique unicolore initial. Dans une telle hypothèse (2b), il s’ensuit l’apparition de la sous-espèce plus évoluée homo sapiens supersapiens. Dans ce cas, le scénario correspondant se révèle doublement rassurant, puisqu’il conduit à la fois à la survivance d’homo sapiens sapiens et à celle d’homo sapiens supersapiens. On le voit, dans le cas (2), c’est le modèle diachronique qui demeure le modèle fondamental, conduisant à laisser les probabilités initiales inchangées.

À ce stade, nous sommes en mesure d’achever la construction de l’espace des solutions pour DA. En effet, une nouvelle application du principe d’indifférence conduit ici à attribuer une probabilité de 1/4 à chacun des 4 sous-cas : (1a), (1b), (2a), (2b). Ces derniers se trouvent représentés sur la figure ci-dessous :

CasT0T2P
11a1/4
1b1/4
22a1/4
2b● ○1/4

Figure 2.

Il suffit désormais de déterminer la nature du scénario qui est associé à chacun des quatre sous-cas qui viennent d’être décrits. Ainsi que cela a été discuté plus haut, un scénario inquiétant est associé à l’hypothèse (1a), alors qu’un scénario rassurant est associé aux hypothèses (1b), (2a) et (2b) :

CasT0T2PNature du scénarioP
11a1/4terrifiant1/4
1b1/4rassurant
22a1/4rassurant3/4
2b● ○1/4rassurant

Figure 3.

On le voit finalement, les considérations qui précèdent conduisent à une nouvelle formulation de DA. Car il résulte des développements précédents que la portée initiale de DA doit être réduite, dans deux directions différentes. En premier lieu, il convient de reconnaître que soit le modèle synchronique unicolore, soit le modèle diachronique unicolore s’applique à notre sous-espèce homo sapiens sapiens. Un principe d’indifférence conduit alors à attribuer une probabilité de 1/2 à chacune de ces deux hypothèses. Il en résulte un premier affaiblissement de DA, puisque le décalage bayesien associé à une hypothèse terrifiante ne concerne plus qu’un scénario sur deux. Un deuxième affaiblissement de DA résulte ensuite du traitement pluraliste du problème de la classe de référence. Car dans l’hypothèse où le modèle synchronique unicolore (1) s’applique à notre sous-espèce homo sapiens sapiens, deux situations différentes doivent être distinguées. L’une d’entre elles seulement (1a) conduit à la fois à la disparition d’homo sapiens sapiens et d’homo sapiens et correspond ainsi à une Apocalypse effrayante. En revanche, l’autre situation (1b) conduit à la disparition d’homo sapiens sapiens mais à la survivance de la sous-espèce humaine plus évoluée homo sapiens supersapiens, et constitue alors un scénario tout à fait rassurant. À ce stade, une seconde application du principe d’indifférence entraîne l’attribution d’une probabilité de 1/2 à chacun de ces deux sous-cas (cf. Figure 3). Au total, un scénario effrayant n’est plus associé désormais qu’avec une probabilité de 1/4, alors qu’un scénario rassurant se trouve associé avec une probabilité de 3/4.

On le voit, étant donné ces deux mouvements de recul, il en résulte une nouvelle formulation de DA, qui pourrait se révéler plus consensuelle que dans sa forme originale. En effet, la présente formulation de DA peut maintenant être réconciliée avec nos intuitions pré-théoriques. Car le fait de prendre en compte DA donne désormais une probabilité de 3/4 pour l’ensemble des scénarios rassurants et une probabilité qui n’est plus que de 1/4 pour un scénario associé à une Apocalypse effrayante. Bien sûr, nous n’avons pas fait complètement disparaître le risque d’une Apocalypse effrayante. Et nous devons, à ce stade, accepter un certain risque, dont la portée se révèle toutefois limitée. Mais surtout, il n’est plus nécessaire désormais de renoncer à nos intuitions pré-théoriques.

Finalement, ce qui précède met en lumière une facette essentielle de DA. Car dans un sens étroit, il s’agit d’un argument qui concerne le destin de l’humanité. Et dans un sens plus large (celui qui nous a concerné jusqu’ici) il met en avant la difficulté d’appliquer des modèles probabilistes aux situations de la vie courante,17 une difficulté qui est le plus souvent largement sous-estimée. Ceci ouvre la voie à un champ entier qui présente un réel intérêt pratique, consistant en une taxonomie de modèles probabilistes, dont l’importance philosophique serait demeurée cachée, sans la défense forte et courageuse de l’argument de l’Apocalypse effectuée par John Leslie.18


Références

Bostrom, N. (1997) ‘Investigations into the Doomsday argument, pré-publication à http://www.anthropic-principle.com/preprints/inv/investigations.html

Bostrom, N. (2002) Anthropic Bias: Observation Selection Effects in Science and Philosophy, New York: Routledge

Chambers, T. (2001) ‘Do Doomsday’s Proponents Think We Were Born Yesterday?’, Philosophy, 76, 443-50

Delahaye, J-P. (1996) ‘Recherche de modèles pour l’argument de l’apocalypse de Carter-Leslie’, manuscrit

Eckhardt, W. (1993) ‘Probability Theory and the Doomsday Argument’, Mind, 102, 483-88

Eckhardt, W. (1997) ‘A Shooting-Room view of Doomsday’, Journal of Philosophy, 94, 244-259

Franceschi, P. (1998) ‘Une solution pour l’Argument de l’Apocalypse’, Canadian Journal of Philosophy, 28, 227-46

Franceschi, P. (1999) ‘Comment l’urne de Carter et Leslie se déverse dans celle de Hempel’, Canadian Journal of Philosophy, 29, 139-56, traduction anglaise sous le titre ‘The Doomsday Argument and Hempel’s Problem’, http://cogprints.org/2172/

Franceschi, P. (2002) Une application des n-univers à l’Argument de l’Apocalypse et au paradoxe de Goodman, Corté: Université de Corse, dissertation doctorale, http://www.univ-corse.fr/~franceschi/Une%20application%20des%20n-univers.pdf

Hájek, A. (2002) ‘Interpretations of Probability’, The Stanford Encyclopedia of Philosophy, E. N. Zalta (ed.), http://plato.stanford.edu/archives/win2002/entries/probability-interpret

Korb, K. & Oliver, J. (1998) ‘A Refutation of the Doomsday Argument’, Mind, 107, 403-10

Leslie, J. (1993) ‘Doom and Probabilities’, Mind, 102, 489-91

Leslie, J. (1996) The End of the World: the science and ethics of human extinction, London: Routledge

Sober, E. (2003)‘An Empirical Critique of Two Versions of the Doomsday Argument – Gott’s Line and Leslie’s Wedge’, Synthese, 135-3, 415-30

Sowers, G. F. (2002) ‘The Demise of the Doomsday Argument’, Mind, 111, 37-45

1 La présente analyse de DA constitue le prolongement de Franceschi (2002).

2 Cf. Korb & Oliver (1998).

3 La description originale par Bostrom de l’expérience des deux urnes se réfère à deux urnes distinctes. Dans un souci de simplicité, je me réfère ici, de manière équivalente, à une seule urne (qui contient soit 10, soit 1000 boules).

4 De manière plus précise, Leslie considère une analogie avec l’expérience de la loterie.

5 Cf. (2003, p. 9): “But who or what has the propensity to randomly assign me a temporal location in the duration of the human race? There is no such mechanism”. Mais Sober s’intéresse surtout à fournir des preuves par rapport aux hypothèses utilisées dans la version originale de DA et à élargir le champ de l’argument en déterminant les conditions de son application à des situations concrètes.

6 Cf. (1997, p. 251).

7 Cf. (2002, p. 39).

8 J’emprunte cette terminologie à Chambers (2001).

9 D’autres variations de l’expérience des deux urnes++ peuvent même être envisagées. En particulier, des variations de l’expérience où le processus aléatoire s’opère de manière diachronique et non synchronique (c’est-à-dire au temps T0) peuvent être imaginées.

10 Cf. Sowers (2002, p. 40).

11Les expériences des deux urnes synchronique et diachronique peuvent toutes deux donner lieu à une variation incrémentale. La variation incrémentale de l’expérience des deux urnes (synchronique) a été mentionnée plus haut : il s’agit de l’expérience des deux urnes++. Il est de même possible de construire une variation incrémentale analogue pour l’expérience des deux urnes diachronique, où l’éjection des boules s’effectue à des intervalles temporels réguliers. À ce stade, il apparaît que les deux modèles concurrents peuvent donner lieu à une telle variation incrémentale. Ainsi, le fait de considérer les variations incrémentales des deux modèles concurrents – l’expérience des deux urnes++ synchronique et l’expérience des deux urnes++ diachronique, n’apporte pas ici d’élément nouveau par rapport aux deux expériences originales. De même, on pourrait considérer en effet des variations où le tirage aléatoire s’effectue non pas en T0, mais de manière progressive, ou des variations où une pièce quantique est utilisée, etc. Mais dans tous les cas, de telles variations sont susceptibles d’être adaptées à chacun des deux modèles.

12 Leslie (1993, p. 490) évoque ainsi: “(…) the potentially much stronger objection that the number of names in the doomsday argument’s imaginary urn, the number of all humans who will ever have lived, has not yet been firmly settled because the world is indeterministic”.

13 Le problème de la classe de référence dans la théorie des probabilités est notamment exposé dans Hájek (2002, s. 3.3). Pour un traitement du problème de la classe de référence dans le contexte qui est celui de DA, voir notamment Eckhardt (1993, 1997), Bostrom (1997, 2002, ch. 4 pp. 69-72 et ch. 5), Franceschi (1998, 1999). Le point souligné dans Franceschi (1999) peut être interprété comme un traitement du problème de la classe de référence au sein de la théorie de la confirmation.

14 Cf. 1996, p. 260-261.

15 Cf. Leslie (1996, p. 259).

16 Cf. Leslie (1996, pp. 258-9): “The thing to note is that the red ball can be treated either just as a red ball or else as a red-or-green ball. Bayes’s Rule applies in both cases. […] All this evidently continues to apply to when being-red-or-green is replaced by being-red-or-pink, or being-red-or-reddish”.

17 Cet aspect important de l’argument est également souligné dans Delahaye (1996). Il s’agit aussi du thème principal de Sober (2003).

18 Je suis reconnaissant envers Nick Bostrom pou des discussions utiles sur le problème de la classe de référence, ainsi qu’envers Daniel Andler, Jean-Paul Delahaye, John Leslie, Claude Panaccio, Elliott Sober, ainsi qu’un expert anonyme pour le Journal of Philosophical Research, pour des commentaires utiles sur de précédentes versions de cet article.

Une analyse dichotomique du paradoxe de l’examen-surprise

Une analyse dichotomique du paradoxe de l’examen-surprise

décembre 2004

Paul Franceschi

Université de Corse

This paper proposes a new framework to solve the surprise examination paradox. I survey preliminary the main contributions to the literature related to the paradox. I expose then a simplified version of the present account. I analyse further the different cases of surprise in more detail. This leads to distinguish between surprise by error, by non-justification and by inappropriate justification. I introduce then a distinction between a monist and a dichotomic analysis of the paradox. With the help of a matrix notation, I also present a dichotomy that leads to distinguish two basically and structurally different notions of surprise, which are respectively based on a conjoint and a disjoint structure. I describe then how Quine’s solution applies to the surprise examination paradox corresponding to the conjoint structure. Lastly, I expose a solution to the paradox based on the disjoint structure.

Je présenterai dans ce qui suit un cadre conceptuel nouveau, en ce sens qu’il réorganise plusieurs éléments de solution décrits dans la littérature, pour résoudre le paradoxe de l’examen-surprise (surprise examination paradox, soit SEP). La solution proposée ici repose sur les éléments essentiels suivants : (a) une distinction entre analyse moniste et dichotomique du paradoxe ; (b) l’introduction d’une définition matricielle, qui sert de support à différentes variations du paradoxe ; (c) la distinction entre une définition conjointe ou disjointe des cas de surprise et de non-surprise, conduisant à deux notions structurellement distinctes de surprise.

Dans la section 1, je m’attache à décrire le paradoxe et les principales solutions rencontrées dans la littérature. Je décris ensuite de manière simplifiée, dans la section 2, la solution au paradoxe qui résulte de la présente approche. Dans la section 3, j’analyse en détail les différents cas de surprise. J’introduis ensuite dans la section 4, la distinction entre analyse moniste et dichotomique du paradoxe. J’y présente également une dichotomie qui permet de distinguer deux versions fondamentalement et structurellement différentes du paradoxe : d’une part une version basée sur une structure conjointe des cas de non-surprise et de surprise ; d’autre part, une version fondée sur une structure disjointe. Dans la section 5, je décris comment la solution de Quine s’applique pour la version de SEP correspondant à la structure conjointe des cas de non-surprise et de surprise. Enfin, dans la section 6, j’expose la solution pour SEP correspondant à la structure disjointe.

  1. Le paradoxe

Le paradoxe de l’examen-surprise trouve son origine dans ce qui constitue un fait réel. En 1943-1944, les autorités suédoises envisagèrent de réaliser un exercice de défense civile. Elles diffusèrent alors par la radio une annonce selon laquelle un exercice de défense civile devait se dérouler la semaine suivante. Cependant, afin que celui-ci se déroule dans des conditions optimales, l’annonce précisa également que personne ne pourrait connaître à l’avance la date de l’exercice. Le mathématicien Lennart Ekbom comprit le subtil problème posé par cette annonce d’un exercice de défense civile et l’exposa à ses étudiants. Le paradoxe connut ensuite une large diffusion à travers le monde.

SEP est tout d’abord apparu dans la littérature avec un article de D. O’ Connor (1948). O’ Connor présente le paradoxe sous la forme de l’annonce d’un exercice d’entraînement militaire. Ultérieurement, SEP apparaîtra dans la littérature sous d’autres formes, telles que l’annonce de l’apparition d’un as dans un jeu de cartes (Scriven 1951) ou encore d’une pendaison (Quine 1953). Cependant, la version du paradoxe liée à l’annonce par un professeur d’un examen-surprise est demeurée la forme la plus courante. La version classique du paradoxe est ainsi la suivante : un professeur annonce à ses étudiants qu’un examen aura lieu la semaine prochaine, mais qu’ils ne pourront pas connaître à l’avance le jour précis où l’examen se déroulera. L’examen aura donc lieu par surprise. Les étudiants raisonnent ainsi. L’examen ne peut avoir lieu le samedi, pensent-ils, car sinon ils sauraient à l’avance que l’examen aurait lieu le samedi et donc il ne pourrait survenir par surprise. Aussi le samedi se trouve-t-il éliminé. De plus, l’examen ne peut avoir lieu le vendredi, car sinon les étudiants sauraient à l’avance que l’examen aurait lieu le vendredi et donc il ne pourrait survenir par surprise. Aussi le vendredi se trouve-t-il également éliminé. Par un raisonnement analogue, les étudiants éliminent successivement le jeudi, le mercredi, le mardi et le lundi. Finalement, ce sont tous les jours de la semaine qui sont ainsi éliminés. Toutefois, cela n’empêche pas l’examen de survenir finalement par surprise, le mercredi. Ainsi, le raisonnement des étudiants s’est avéré fallacieux. Pourtant, un tel raisonnement paraît intuitivement valide. Le paradoxe réside ici dans le fait que le raisonnement des étudiants est semble-t-il valide, alors qu’il se révèle finalement en contradiction avec les faits, à savoir que l’examen peut véritablement survenir par surprise, conformément à l’annonce faite par le professeur.

Dans la littérature, plusieurs solutions pour résoudre SEP ont été proposées. Il n’existe toutefois pas, à l’heure actuelle, de solution qui fasse l’objet d’un consensus. Je citerai brièvement les principales solutions qui ont été proposées, ainsi que les objections fondamentales qu’elles ont soulevées.

Une première tentative de solution est apparue avec O’ Connor (1948). Cet auteur fit observer que le paradoxe était dû au caractère contradictoire qui résultait de l’annonce du professeur et de la mise en œuvre de cette dernière. Selon O’ Connor, l’annonce du professeur selon laquelle l’examen devait survenir par surprise se trouvait en contradiction avec le fait que les détails de la mise en œuvre de l’examen étaient connus. Ainsi, l’énoncé de SEP se révélait-il, selon O’ Connor, auto-réfutant. Cependant, il s’est avéré qu’une telle analyse était inadéquate, car il est finalement apparu que l’examen pouvait véritablement être mis en œuvre dans des conditions où il survenait par surprise, par exemple le mercredi. Ainsi, l’examen pouvait finalement survenir par surprise, confirmant ainsi mais non réfutant, l’annonce du professeur. Cette dernière constatation avait pour effet de faire resurgir le paradoxe.

Quine (1953) proposa également une solution pour SEP. Quine considère ainsi la conclusion finale de l’étudiant selon laquelle l’examen ne peut avoir lieu par surprise aucun jour de la semaine. Selon Quine, l’erreur de l’étudiant réside dans le fait de n’avoir pas envisagé dès le début l’hypothèse selon laquelle l’examen pourrait ne pas avoir lieu le dernier jour. Car le fait de considérer précisément que l’examen n’aura pas lieu le dernier jour permet finalement à l’examen de survenir par surprise, le dernier jour. Si l’étudiant avait également pris en compte cette possibilité dès le début, il ne serait pas parvenu à la conclusion fallacieuse que l’examen ne peut pas survenir par surprise. Cependant, la solution de Quine fit l’objet de critiques, émanant de commentateurs (Ayer 1973, Janaway 1989 et également Hall 1999) qui mirent l’accent sur le fait que celle-ci ne permettait pas de rendre compte de plusieurs variations du paradoxe. Ainsi, Ayer imagine une version de SEP où une personne est informée que les cartes d’un jeu vont être retournées une à une, mais qu’elle ne saura pas à l’avance lorsque l’as de Pique sortira. Néanmoins, la personne est autorisée à vérifier la présence de l’as de Pique avant que le jeu de cartes ne soit mélangé. L’objection à la solution de Quine basée sur une telle variation a pour but de mettre en évidence une situation où le paradoxe est bien présent mais où la solution de Quine ne trouve plus à s’appliquer, parce que l’étudiant sait de manière indubitable, compte tenu des données initiales du problème, que l’examen aura bien lieu.

Selon une autre approche, défendue notamment par R. Shaw (1958), la structure du paradoxe se révèle être auto-référentielle. Selon Shaw, le fait que l’examen doive survenir par surprise s’assimile au fait que la date de l’examen ne pourra pas être déduite à l’avance. Mais le fait que les étudiants ne puissent pas connaître à l’avance, par déduction, la date de l’examen constitue précisément une des prémisses. Le paradoxe trouve donc son origine, selon Shaw, dans le fait que la structure de l’annonce du professeur est auto-référentielle. Selon l’auteur, l’autoréférence qui en résulte constitue ainsi la cause du paradoxe. Cependant, une telle analyse devait se révéler peu convaincante, car elle ne permettait pas de rendre compte du fait que malgré sa structure auto-référentielle, l’annonce du professeur se trouvait finalement confirmée par le fait que l’examen pouvait finalement survenir par surprise, par exemple le mercredi.

Une autre approche, développée par Richard Montague et David Kaplan (1960) est basée sur l’analyse de la structure de SEP qui s’avère, selon ces auteurs, être celle du paradoxe du Connaisseur (paradox of the Knower). Ce dernier paradoxe constitue lui-même une variation du paradoxe du Menteur (Liar paradox). Ce que proposent donc en définitive Montague et Kaplan, c’est une réduction de SEP au paradoxe du Menteur. Mais cette dernière approche ne s’est toutefois pas avérée convaincante. En effet, elle a été critiquée car elle ne rend pas compte, d’une part, du fait que l’annonce du professeur peut être finalement confirmée et d’autre part, du fait que l’on peut formuler le paradoxe de manière non auto-référentielle.

Il convient également de mentionner l’analyse développée par Robert Binkley (1968). Dans son article, Binkley expose une réduction de SEP au paradoxe de Moore (Moore’s paradox). L’auteur fait valoir que le dernier jour, SEP se réduit à une variation de la proposition ‘P et je ne sais pas que P’ qui constitue le paradoxe de Moore. Binkley étend ensuite son analyse concernant le dernier jour aux autres jours de la semaine. Cependant, cette approche a fait l’objet de solides objections, résultant notamment de l’analyse de Wright et Sudbury (1977).

Une autre approche mérite également d’être mentionnée. Il s’agit de celle développée par Paul Dietl (1973) et Joseph Smith (1984). Selon les auteurs, la structure de SEP est celle du paradoxe sorite (sorites paradox). Ce que proposent donc Dietl et Smith, c’est une réduction de SEP au paradoxe sorite. Toutefois, une telle analyse a rencontré de sérieuses objections, développées notamment par Roy Sorensen (1988).

Il convient en outre de mentionner l’approche présentée par Crispin Wright et Aidan Sudbury (1977). L’analyse développée par ces auteurs[1] conduit à distinguer deux cas : d’une  part, le dernier jour, l’étudiant se trouve dans une situation qui est celle qui résulte du paradoxe de Moore ; d’autre part, le premier jour, l’étudiant se trouve dans une situation fondamentalement différente où il peut valablement croire dans l’annonce faite par le professeur. Ainsi, la mise en évidence de ces deux types de situations conduit au rejet du principe de rétention temporelle. Selon ce dernier principe, ce qui est su à une position temporelle T0 est également su à une position temporelle ultérieure T1 (avec T0 < T1). Toutefois, l’analyse de Wright et Sudbury s’est révélée vulnérable à un argument développé par Sorensen (1982). Celui-ci en effet mit en évidence une version de SEP (Designated Student Paradox) qui ne faisait pas appel au principe de rétention temporelle, sur lequel reposait l’approche de Wright et Sudbury. Selon cette version, le paradoxe était bien présent, mais sans que les conditions de son exposé ne nécessitent de faire appel au principe de rétention temporelle. Sorensen décrit ainsi la variation suivante du paradoxe. Cinq étudiants, A, B, C, D et E se trouvent placés, dans cet ordre, l’un derrière l’autre. Le professeur montre alors aux étudiants quatre étoiles en argent et une étoile en or. Puis il place une étoile dans le dos de chacun des étudiants. Enfin, il leur annonce que celui d’entre eux qui a une étoile en or dans le dos a été désigné pour passer un examen. Mais, ajoute le professeur, cet examen constituera une surprise, car les étudiants ne connaîtront celui qui a été désigné que lorsqu’ils rompront leur alignement. Dans ces conditions, il apparaît que les étudiants peuvent mettre en œuvre un raisonnement analogue à celui qui prévaut dans la version originale de SEP. Mais cette dernière version est diachronique, alors que la variation décrite par Sorensen se révèle en revanche synchronique. Et en tant que telle, elle n’est donc pas basée sur un quelconque principe de rétention temporelle.

Compte tenu de ces éléments, il apparaît que l’enjeu et les implications philosophiques de SEP sont d’importance. Ils se situent à plusieurs niveaux et concernent[2] ainsi la théorie de la connaissance, la déduction, la justification, les paradoxes sémantiques, l’autoréférence, la logique modale, les notions vagues.

  1. Une solution simplifiée

Je commencerai par présenter de manière simplifiée la solution pour le paradoxe de l’examen-surprise qui résulte de la présente analyse, avant de m’attacher à décrire ensuite celle-ci de manière détaillée. Les lignes essentielles de la présente solution peuvent en effet être décrites assez simplement. Celles-ci peuvent ainsi être esquissées en considérant ce qu’aurait dû être le raisonnement de l’étudiant. Voici en effet, en vertu de la présente analyse, comment l’étudiant aurait dû raisonner, après avoir entendu l’annonce du professeur. Il aurait dû tout d’abord remarquer que deux conceptions sémantiquement distinctes de la surprise, susceptibles d’influer sur le raisonnement à tenir, se révèlent possibles. Il aurait pu observer également que le professeur n’a pas précisé, lors de son annonce, à laquelle de ces deux conceptions il se référait. Le professeur se réfère donc indifféremment, aurait pu poursuivre l’étudiant, à l’une ou à l’autre de ces conceptions de la surprise. Par conséquent, il est nécessaire d’envisager successivement les deux notions possibles de surprise, et le raisonnement à tenir pour chaque cas.

En premier lieu, il apparaît que la surprise peut correspondre à une définition conjointe des cas de non-surprise et de surprise. Une telle définition est telle que la non-surprise et la surprise sont à la fois possibles, par exemple le dernier jour. Une telle situation peut notamment se produire si l’étudiant commence par raisonner en éliminant successivement, le dernier jour, l’avant-dernier jour, …, puis le 2ème jour, et enfin le 1er jour de la période visée par l’annonce du professeur, en considérant que l’examen ne peut survenir par surprise aucun de ces jours-là. Après avoir éliminé ainsi tous les jours de la période par un raisonnement basé sur une induction-arrière (backward induction argument), l’étudiant conclut alors que l’examen ne peut avoir lieu aucun jour de la période considérée. Mais ceci a précisément pour effet de permettre à la surprise de se produire, notamment si l’examen survient le dernier jour, puisque l’étudiant s’attend alors à ce que l’examen n’ait pas lieu. De manière tout à fait plausible, une telle situation correspond alors à un cas de surprise. Dans une telle situation, l’erreur de raisonnement, ainsi que l’a fait valoir Quine (1953), réside dans le fait que l’étudiant n’a pas considéré comme un cas possible le fait que l’examen survienne par surprise le dernier jour. Cependant, puisqu’une telle situation est finalement susceptible de se présenter, l’étudiant aurait dû la prendre en considération depuis le début, ce qui l’aurait alors empêché d’éliminer successivement les jours nn-1, n-2, …, 2, puis 1 [3]. On peut remarquer en outre que la notion de surprise associée à une structure conjointe est une notion de surprise totale. On se trouve en effet en présence le dernier jour de non-surprise ou de surprise totale, sans qu’il existe dans ce cas de situations intermédiaires.

En second lieu, il s’avère que la surprise aurait pu également correspondre à une définition disjointe des cas de non-surprise et de surprise. Une telle définition correspond au cas où la non-surprise et la surprise ne sont pas possibles le même jour. L’intuition sur laquelle repose une telle conception de la surprise est la suivante : supposez que l’on vous annonce que vous allez subir dans l’année un examen, tout en ignorant par ailleurs le jour précis où il se déroulera. Dans un tel cas, ne résulte-t-il pas de notre expérience que l’examen peut véritablement se produire par surprise, de nombreux jours de l’année, par exemple un jour quelconque des six premiers mois. Un tel phénomène constitue un fait concret qui correspond à l’expérience individuelle de chacun d’entre nous. Dans l’énoncé classique du paradoxe de l’examen-surprise, la période considérée n’est pas aussi longue qu’une année, mais correspond classiquement à une semaine. Cependant, dans ce dernier cas, l’énoncé du paradoxe laisse également place, bien qu’à un moindre degré, à une telle conception de la surprise associée à une structure disjointe des cas de non-surprise et de surprise. En effet, il apparaît ainsi que l’examen peut effectivement survenir par surprise, par exemple le 2ème jour de la semaine. Le 2ème jour constitue ainsi une instance propre de surprise. Parallèlement, le dernier jour constitue une instance propre de non-surprise, puisqu’il résulte de l’énoncé que l’examen ne peut avoir lieu ce jour-là par surprise. Ainsi, le dernier jour correspond à une instance propre de non-surprise, et de même, les 1er et 2ème jours constituent des instances propres de surprise. Cependant, à ce stade, il apparaît également que le statut des autres jours de la période correspondante n’est pas déterminé. Ainsi, une telle structure disjointe des cas de non-surprise et de surprise est à la fois disjointe et non-exhaustive. Par conséquent, il apparaît que la notion de surprise correspondante présente ici les critères d’une notion vague. Et ceci met en lumière le raisonnement que l’étudiant aurait dû tenir. La notion de surprise associée à une structure conjointe étant une notion vague, il existe nécessairement une zone de pénombre entre les instances propres de non-surprise et de surprise, qui correspond à l’existence de cas limites. Une telle zone de pénombre peut résulter de l’existence de degrés de surprise, ou bien de cas dont la nature de non-surprise ou de surprise, bien que déterminée avec précision, n’est cependant pas accessible à notre connaissance. Mais dans tous les cas, il existe bien une zone de pénombre associée à des cas limites, dans la structure de la définition de la surprise correspondante. Et la seule existence de ces cas limites interdit d’éliminer successivement, par un raisonnement basé sur une induction-arrière, les jours nn-1, n-2, …, 2, puis 1. On le voit, à la différence de la notion de surprise précédente, la notion de surprise qui est associée à une structure conjointe conduit ici à l’existence de cas intermédiaires entre la non-surprise et la surprise.

Finalement, il apparaît que le fait d’envisager successivement les deux notions différentes de surprise qui peuvent correspondre à l’annonce du professeur, conduit à rejeter dans les deux cas le raisonnement classique de l’étudiant qui le conduit à éliminer successivement tous les jours de la semaine. Ici, la motivation pour rejeter le raisonnement de l’étudiant se révèle différente pour chacune des deux notions de surprise, mais dans les deux cas, il s’ensuit une conclusion convergente qui conduit au rejet du raisonnement de l’étudiant basé sur une induction-arrière.

  1. Les différents cas de surprise

Les éléments du paradoxe et une analyse simplifiée ayant été présentés, il convient maintenant de s’attacher à décrire en détail la présente solution pour SEP. Commençons tout d’abord avec la notion de surprise[4]. Qu’est-ce qui constitue véritablement un cas de surprise? Comment la surprise peut-elle être définie dans le contexte de SEP? En premier lieu, on peut observer que la surprise apparaît de manière claire lorsque l’examen survient le jour k et que l’étudiant ne prévoit pas que l’examen se déroulera le jour k. La situation correspondante peut revêtir deux formes différentes : soit (a) l’examen survient le jour k mais l’étudiant prédit que l’examen aura lieu un jour p différent de k (formellement, p ¹ k, avec 1 £ p £ n) ; soit (b) l’examen survient de même le jour k mais l’étudiant considère que l’examen n’aura pas lieu du tout (la prédiction associée est alors dénotée par p = 0). Ces deux situations peuvent être prises en compte de manière unifiée, en considérant de manière générale que la surprise se présente sans ambiguïté lorsque l’examen survient le jour k et que l’étudiant prédit que l’examen surviendra un jour p qui est lui-même différent de k (formellement, p ¹ k, avec 0 £ p £ n). De manière intuitive, dans cette dernière situation, la surprise provient du fait que l’étudiant a effectué une prédiction erronée. Ainsi, une telle situation peut être dénommée surprise par erreur.

Alors que la prédiction correspondante est fausse en cas de surprise par erreur, il est utile de distinguer également selon qu’une telle prédiction est justifiée ou non. En effet, la prédiction correspondante peut par exemple être effectuée au hasard. Dans ce cas, une telle prédiction n’est pas justifiée. En revanche, il est possible également que l’étudiant effectue une prévision fausse, mais qui s’avère cependant justifiée. Il s’agit là d’un type de surprise par erreur qui correspond en particulier au cas où l’examen a lieu le jour i et où l’étudiant a prédit de manière erronée mais pourtant justifiée (par l’annonce du professeur et le raisonnement qui en résulte) que l’examen n’aurait lieu aucun jour de la semaine et donc n’aurait pas lieu le jour i. On le voit, dans un tel cas, la prédiction effectuée par l’étudiant est à la fois fausse et justifiée. Cependant, la justification correspondante se révèle inadéquate. Un tel cas peut être dénommé surprise par justification inadéquate.

On peut considérer également un autre type de situation, où la surprise peut survenir alors même que la prédiction effectuée par l’étudiant se révèle vraie. Pour mettre en échec l’annonce du professeur, l’étudiant décide ainsi de mettre en œuvre la stratégie suivante ; le jour 1, je prédirai que l’examen se déroulera le jour 1 ; le jour 2, je prédirai que l’examen se déroulera le jour 2 ; … ; le jour n, je prédirai que l’examen se déroulera le jour n. De la sorte, pense l’étudiant, je suis sûr que ma prédiction sera toujours vraie. Appelons une telle stratégie incrémentale. Il apparaît en effet que cette dernière stratégie a pour conséquence que la prédiction correspondante se révélera systématiquement vraie[5]. Dans ces conditions, on observe tout d’abord que la surprise par erreur ne peut plus se manifester. Cependant, la surprise n’est elle pas possible malgré tout lorsque la stratégie incrémentale est mise en œuvre? La situation correspondante peut être mise en évidence de manière plus nette en considérant par exemple 365-SEP [6]. Dans ce cas, quelle que soit la date finale de l’examen, la prédiction de l’étudiant se révélera vraie, à cause de la stratégie incrémentale utilisée par ce dernier. Toutefois, on peut considérer que l’examen pourra quand même survenir par surprise dans de telles circonstances, par exemple le jour 127. Certes, la prédiction de l’étudiant se révélera vraie. Mais cette dernière prédiction ne sera pas motivée, de sorte que la prédiction correspondante se révélera finalement injustifiée. Par conséquent, on peut considérer que la surprise peut également survenir dans le contexte où la stratégie incrémentale est mise en œuvre. Mais ce dernier type de surprise, à la différence de la surprise par erreur, n’est pas dû à une prédiction erronée. La surprise qui apparaît dans le contexte de la stratégie incrémentale est due au défaut de justification de la prédiction correspondante. Par conséquent, ce type de surprise peut être dénommé surprise par non-justification.

A ce stade, nous sommes désormais en mesure de donner une définition de la notion de surprise. Une telle définition inclut les trois types de surprise qui viennent d’être mentionnés : la surprise par erreur, par justification inadéquate et par non-justification. Ceci conduit à distinguer finalement cinq types de prévisions : (a) vraie et justifiée de manière adéquate ; (b) vraie et non justifiée ; (c) vraie et justifiée de manière inadéquate ; (d) fausse et non justifiée ; (e) fausse et justifiée de manière inadéquate. On le voit, la non-surprise correspond à (a) une prévision qui est à la fois vraie et justifiée de manière appropriée. De même, il s’ensuit une définition de la surprise dont la structure est disjonctive : la surprise correspond ainsi à une prévision (b) vraie et non justifiée, (c) justifiée de manière inadéquate, (d) fausse et non justifiée, ou bien (e) justifiée de manière inadéquate.

Dans ce qui suit, la prévision p effectuée le jour d sera dénotée par dapb (avec 1 £ d £ n, 0 £ p £ n, a Î {0, 1}, et b Î {-1, 0, 1}), avec a = 1 si l’examen a lieu le jour d ou a = 0 si l’examen n’a pas lieu le jour d ; et b = -1 si la prévision de l’étudiant est injustifiée, b= 0 si sa prévision est justifiée de manière inadéquate, b = 1 si la prévision de l’étudiant est justifiée de manière adéquate. Par commodité, on utilisera respectivement {°, *} pour dénoter les valeurs {0, 1} prises par a et {-, °, *} pour dénoter les valeurs {-1, 0, 1} prises par b. Avec cette notation, la surprise par erreur est dénotée par kpb (avec 1 £ k £ n, 0 £ p £ n et k ¹ p), la surprise par non-justification par kp– (avec 1 £ k £ n, 0 £ p £ n), la surprise par justification inadéquate par kp°. Enfin, la non-surprise est dénotée par kk*. Le tableau ci-dessous synthétise l’ensemble des situations ainsi décrites :

casprévisionformevaleursexempledescription
non-surprisevraie et justifiée de manière adéquatek*k*a = 1 b = 1  7*7*l’examen a eu lieu le 7ème jour et l’étudiant a prédit de manière exacte et avec une justification adéquate que l’examen aurait lieu le 7ème jour
surprisevraie et non justifiéek*ka = 1 b = -16*6-l’examen a eu lieu le 6ème jour et l’étudiant a prédit, de manière exacte mais sans justification, que l’examen aurait lieu le 6ème jour
vraie et justifiée de manière inadéquatek*k°  a = 1 b = 06*6°l’examen a eu lieu le 6ème jour et l’étudiant a prédit, de manière exacte mais avec une justification inadéquate, que l’examen aurait lieu le 6ème jour
fausse et non justifiéek*pk ¹ pa = 1 b = -16*7-l’examen a eu lieu le 6ème jour et l’étudiant a prédit de manière erronée et non justifiée que l’examen aurait lieu le 7ème jour
fausse et justifiée de manière inadéquatek*p° k ¹ pa = 1 b = 06*0°l’examen a eu lieu le 6ème jour et l’étudiant a prédit de manière erronée et avec une justification inadéquate que l’examen n’aurait lieu aucun jour de la semaine

Enfin, on pourra remarquer que la définition de la surprise qui précède est basée sur des instances positives, c’est-à-dire des cas où l’examen survient véritablement. Ainsi, k0b et kkb dénotent un cas où l’examen se déroule véritablement le jour k (a = 1). En effet, les prévisions correspondant à un jour où l’examen ne survient pas (a = 0) ne sont pas prises en considération. De telles prévisions qui correspondent à une prédiction effectuée un jour k où l’examen ne survient pas présentent la structure k°pb. Mais ces derniers cas correspondent à des instances négatives (l’examen n’a pas lieu le jour considéré) et leur cas peut par conséquent être légitimement ignoré.

  1. Analyse moniste ou dichotomique du paradoxe

La plupart des analyses classiquement proposées pour résoudre SEP sont basées sur une solution générale qui s’applique, de manière globale, à la situation qui est celle de SEP. Dans ce type d’analyse, une solution unique est présentée, qui est censée s’appliquer à toutes les variations de SEP. Un tel type de solution présente une nature unitaire et se révèle basée sur ce qu’on peut appeler une théorie moniste de SEP. La plupart des solutions pour SEP proposées dans la littérature constituent des analyses monistes. Des exemples caractéristiques de ce type d’analyse de SEP sont les solutions proposées par Quine (1953) ou Binkley (1968). De manière analogue, la solution envisagée par Dietl (1973) qui est basée sur une réduction de SEP au paradoxe sorite constitue également une solution moniste pour SEP.

A l’inverse, une analyse dichotomique de SEP est basée sur une distinction entre deux scénarios différents de SEP et sur la formulation d’une solution indépendante pour chacun des deux scénarios. Dans la littérature, la seule analyse qui présente une nature dichotomique, à ma connaissance, est celle de Wright et Sudbury mentionnée plus haut. Dans ce qui suit, je présenterai une solution dichotomique pour SEP. Cette solution est basée sur la distinction de deux variations de SEP, associées à des notions de surprise correspondant à des structures différentes des cas de non-surprise et de surprise.

A ce stade, il s’avère utile d’introduire la notation matricielle. Si l’on considère par exemple 7-SEP, les différents cas de non-surprise et de surprise peuvent être modélisés à l’aide du tableau S[ks] suivant, où k dénote le jour où l’examen a lieu et S[ks] dénote si le cas correspondant de non-surprise (s = 0) ou de surprise (s = 1) est rendu possible (S[ks] = 1) ou non (S[ks] = 0) par les conditions de l’énoncé (pour 1 £ k £ n). Dans ce contexte, S[7, 1] = 0 dénote par exemple le fait que la surprise n’est pas possible le 7ème jour, et inversement, S[7, 1] = 1 dénote le fait que la surprise est possible le 7ème jour ; de même, S[1, 0] = 0 dénote le fait que la non-surprise n’est pas possible le 1er jour par les conditions  de l’énoncé, et inversement, S[1, 0] = 1 dénote le fait que la non-surprise est possible le 1er jour.

La dichotomie sur laquelle est basée la présente solution résulte directement de l’analyse de la structure qui permet de décrire la notion de surprise correspondant à l’énoncé de SEP. Considérons tout d’abord la matrice suivante, qui correspond à une définition maximale, où tous les cas de non-surprise et de surprise sont rendus possibles par l’annonce du professeur :

(D1)S[k, 0]S[k, 1]
S[7,s]11
S[6,s]11
S[5,s]11
S[4,s]11
S[3,s]11
S[2,s]11
S[1,s]11

Au niveau de (D1), on le voit, toutes les valeurs de la matrice S[ks] sont égales à 1, ce qui correspond au fait que tous les cas de non-surprise et de surprise sont rendus possibles par la version de SEP correspondante. La matrice associée peut être définie ainsi comme une matrice rectangulaire.

A ce stade, il s’avère que l’on peut concevoir des variations de SEP associées à des structures matricielles plus restrictives, où certains cas de non-surprise et de surprise ne sont pas autorisés par l’énoncé. Dans de tels cas, certaines valeurs de la matrice sont égales à 0. Il convient maintenant de s’intéresser à la structure de ces définitions plus restrictives. Ces dernières sont telles qu’il existe au moins un cas de non-surprise ou de surprise qui est rendu impossible par l’énoncé, et où la valeur correspondante de la matrice S[ks] est donc égale à 0. Une telle condition laisse place à un certain nombre de variations, dont il convient maintenant d’étudier les caractéristiques.

De manière préliminaire, on peut remarquer que certains types de structures peuvent d’emblée être écartés. Il apparaît en effet que toute définition associée à une restriction de (D1) ne convient pas. Ainsi, il existe des conditions minimales pour l’émergence de SEP. En ce sens, une première condition est que l’étape de base soit présente. Cette étape de base est telle que la non-surprise doit pouvoir survenir le dernier jour, soit S[n, 0] = 1. Avec la notation précédemment définie, elle présente la forme générale nn et correspond à 77 pour 7-SEP. En l’absence de cette étape de base, on n’a pas l’effet paradoxal de SEP. En conséquence, une structure de matrice telle S[n, 0] = 0 peut être d’emblée éliminée.

Une seconde condition pour que l’énoncé conduise à une version authentique de SEP est que l’examen puisse finalement survenir par surprise. Ceci permet en effet à l’annonce du professeur d’être finalement vérifiée (vindication step). Une telle condition – appelons-la l’étape de validation – est classiquement mentionnée comme une condition pour l’émergence du paradoxe. Ainsi, une définition qui serait telle que tous les cas de surprise sont rendus impossibles par l’énoncé correspondant ne conviendrait également pas. Ainsi, la structure correspondant à la matrice suivante ne correspondrait pas non plus à un énoncé de SEP :

(D2)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]10
S[5,s]10
S[4,s]10
S[3,s]10
S[2,s]10
S[1,s]10

car la surprise n’y est possible aucun jour de la semaine (S[k, 1] = 0) et l’étape de validation fait donc défaut à l’énoncé correspondant.

Compte tenu de ce qui vient d’être exposé, on peut maintenant décrire de manière précise les conditions minimales qui sont celles de SEP :

(C3)   S[n, 0] = 1 (étape de base)

(C4)   $k (1 £ k £ n) tel que S[k, 1] = 1 (étape de validation)

A ce stade, on peut s’intéresser à la structure des versions de SEP basées sur les définitions qui satisfont les conditions minimales pour l’émergence du paradoxe qui viennent d’être détaillées, c’est-à-dire qui contiennent à la fois l’étape de base et l’étape de validation. Il apparaît ici que la structure associée aux cas de non-surprise et de surprise correspondant à une variation de SEP peut présenter deux formes d’une nature fondamentalement différente. Une première forme de SEP est associée à une structure où les cas possibles de non-surprise et de surprise sont tels qu’il existe durant la n-période au moins un jour où la non-surprise et la surprise sont possibles simultanément. Une telle définition peut être appelée conjointe. La matrice suivante constitue un exemple de ce type de structure :

(D5)S[k, 0]S[k, 1]
S[7,s]11
S[6,s]11
S[5,s]11
S[4,s]11
S[3,s]01
S[2,s]01
S[1,s]01

car la non-surprise et la surprise y sont possibles simultanément le 7ème, 6ème, 5ème et 4ème jours. Cependant, il s’avère que l’on peut rencontrer également une seconde forme de SEP dont la structure est fondamentalement différente, en ce sens que pour chaque jour de la n-période, il est impossible d’avoir simultanément la surprise et la non-surprise.[7] Une définition de cette nature peut être appelée disjointe. La matrice suivante constitue ainsi un exemple de ce type de structure :

(D6)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]10
S[5,s]10
S[4,s]01
S[3,s]01
S[2,s]01
S[1,s]01

En conséquence, on sera amené dans ce qui suit à distinguer deux versions structurellement distinctes de SEP : (a) une version basée sur une structure conjointe des cas de non-surprise et de surprise rendus possibles par l’énoncé ; (b) une version fondée sur une structure disjointe de ces mêmes cas. La nécessité d’opérer une telle dichotomie trouve sa légitimité dans le fait que dans la version originale de SEP, le professeur ne précise pas si l’on doit prendre en compte une notion de surprise correspondant à une structure disjointe ou conjointe des cas de non-surprise et de surprise. Eu égard à ce point particulier, l’énoncé de SEP se révèle ambigu. Par conséquent, il est nécessaire de considérer successivement deux notions différentes de surprise, respectivement basées sur une structure disjointe ou conjointe des cas de non-surprise et de surprise, ainsi que le raisonnement qui doit leur être associé.

  1. La notion de surprise correspondant à une structure conjointe

Considérons tout d’abord le cas où SEP est basé sur une notion de surprise correspondant à une structure conjointe des cas de non-surprise et de surprise. Soit SEP(I) la version associée à une telle notion de surprise. Intuitivement, cette version correspond à une situation où il existe dans la n-période au moins un jour où la non-surprise et la surprise peuvent à la fois survenir. Plusieurs types de définitions sont susceptibles de répondre à ce critère. Il convient de les examiner tour à tour.

5.1 La définition associée à la matrice rectangulaire et la solution de Quine

En premier lieu, on peut s’intéresser aux structures qui sont telles que tous les cas de non-surprise et de surprise sont rendus possibles par l’énoncé. La matrice correspondante est une matrice rectangulaire. Soit donc SEP(I□) une telle version. La définition associée à une telle structure est maximale car tous les cas de non-surprise et de surprise y sont autorisés. La matrice suivante correspond ainsi à une telle structure générale :

(D7)S[k, 0]S[k, 1]
S[7,s]11
S[6,s]11
S[5,s]11
S[4,s]11
S[3,s]11
S[2,s]11
S[1,s]11

et l’annonce du professeur qui lui est associée est la suivante :

(S7)Un examen se déroulera la semaine prochaine mais la date de l’examen constituera une surprise.

A ce stade, il apparaît que l’on a également une version de SEP pour n = 1 qui satisfait cette définition. La structure associée à 1-SEP(I□) est la suivante :

(D8)S[1, 0]S[1, 1]
S[1,s]11

qui correspond à l’annonce suivante du professeur :

(S8)Un examen se déroulera demain mais la date de l’examen constituera une surprise.

Ainsi, 1-SEP(I□) est la version minimale de SEP qui satisfait non seulement la condition ci-dessus, mais également l’étape de base (C3) selon laquelle la non-surprise doit pouvoir survenir le dernier jour, ainsi que l’étape de validation (C4) en vertu de laquelle l’examen peut finalement survenir par surprise. De plus, il s’agit là d’une variation qui exclut, par sa structure même, l’émergence de la version de SEP basée sur une notion de surprise correspondant à une structure disjointe. Pour cette raison, (D8) peut être considérée comme la forme canonique de SEP(I□). Ainsi, il s’agit là du véritable noyau de SEP(I□) et dans ce qui suit, on s’attachera donc à raisonner sur 1-SEP(I□).

A ce stade, il convient de s’attacher à donner une solution à SEP(I□). Pour cela, rappelons tout d’abord la solution de Quine. La solution pour SEP proposée par Quine (1953) est bien connue. Quine met en évidence le fait que l’étudiant élimine successivement les jours nn-1, …, 1, par un raisonnement basé sur une induction-arrière et conclut ensuite que l’examen n’aura pas lieu dans la semaine. L’étudiant raisonne ainsi. Le jour n, je prédirai que l’examen aura lieu le jour n, et par conséquent l’examen ne peut avoir lieu le jour n ; le jour n-1, je prédirai que l’examen aura lieu le jour n-1, et par conséquent l’examen ne peut avoir lieu le jour n-1 ; … ; le jour 1, je prédirai que l’examen aura lieu le jour 1, et par conséquent l’examen ne peut avoir lieu le jour 1. Finalement, l’étudiant conclut que l’examen n’aura lieu aucun jour de la semaine. La séquence des prédictions successives de l’étudiant est donc : 1a0b, 2a0b, 3a0b, …, (n-1)a0b, na0b. Ce dernier prévoit ainsi que l’examen n’aura lieu aucun jour de la semaine. Mais cette dernière conclusion permet finalement à l’examen de survenir par surprise, y compris le jour n. Selon Quine, l’erreur dans le raisonnement de l’étudiant réside précisément dans le fait de n’avoir pas pris en compte cette possibilité depuis le début. Car dans cette dernière hypothèse, l’étudiant aurait alors envisagé les deux principales hypothèses qui sont nn (“le dernier jour, je prévoirai que l’examen ne pourra pas avoir lieu par surprise”) et n0° (“le dernier jour, je prévoirai que l’examen n’aura lieu aucun jour de la semaine”), au lieu de la seule hypothèse nn*, en empêchant ainsi le raisonnement fallacieux[8].

Quine d’autre part applique directement son analyse à la forme canonique 1-SEP(I□), où l’énoncé correspondant est celui de (S8). Dans ce cas, l’erreur de l’étudiant réside, selon Quine, dans le fait de n’avoir considéré qu’une seule hypothèse, à savoir 11. En fait, l’étudiant aurait dû considérer 4 cas (a) 11 (“je prévois que l’examen ne pourra pas avoir lieu demain par surprise”) ; (b) 1°1b ; (c) 1°0b ; (d) 1*0° (“je prévois que l’examen n’aura pas lieu demain”). Et le fait de considérer l’hypothèse (a) mais également l’hypothèse (d) qui est compatible avec l’annonce du professeur aurait empêché l’étudiant de conclure que l’examen n’aurait finalement pas lieu[9]. Par conséquent, c’est le fait de n’avoir pris en considération que l’hypothèse (a) qui peut être identifié comme la cause du raisonnement fallacieux. Ainsi, l’étudiant n’a pris que partiellement en compte l’ensemble des hypothèses résultant de l’annonce du professeur. S’il avait appréhendé la totalité des hypothèses pertinentes compatibles avec l’annonce du professeur, il n’aurait pas conclu de manière fallacieuse que l’examen n’aurait pas lieu dans la semaine.

A ce stade, il s’avère utile de décrire le raisonnement de l’étudiant en termes de reconstitution de matrice. Car on peut considérer que le raisonnement de l’étudiant le conduit à reconstituer la matrice correspondant à la notion de surprise de la manière suivante :

(D9)S[1, 0]S[1, 1]
S[1,s]10

alors qu’en réalité, il aurait dû le faire de la façon correcte suivante :

(D8)S[1, 0]S[1, 1]
S[1,s]11

Dans ce contexte, il apparaît clairement que la solution de Quine s’applique de manière adéquate à la version de SEP(I□) basée sur la surprise par erreur ainsi qu’elle vient d’être définie. En raisonnant par rapport à 1‑SEP(I□), la non-surprise correspond aux cas suivants : S[1, 0] = {11}. Et de même, la surprise correspond aux cas où l’étudiant prédit chaque jour – de manière fausse mais justifiée – que l’examen n’aura lieu aucun jour de la semaine : S[1, 1] = {1*0°}. Il s’agit là du cas de surprise (e) où la prévision correspondante est fausse et justifiée de manière inadéquate. On le voit, le cas de surprise (e) auquel s’applique la solution de Quine correspond bien à un raisonnement tout à fait plausible et naturel dans le cadre de SEP [10].

5.2 La définition associée à la matrice triangulaire et la réduction de Hall

On l’a vu, la solution de Quine s’applique directement à SEP(I□), c’est-à-dire à une version de SEP basée sur une définition conjointe de la surprise et une matrice rectangulaire. Il convient maintenant de s’intéresser à des variations de SEP basées sur une définition conjointe mais où la structure de la matrice correspondante n’est pas rectangulaire, tout en satisfaisant cependant les conditions pour l’émergence du paradoxe mentionnées plus haut, à savoir la présence de l’étape de base (C3) et de l’étape de validation (C4). De telles matrices présentent une structure que l’on peut qualifier de triangulaire. Soit donc SEP(I∆) la version correspondante.

On peut considérer tout d’abord 7-SEP(I∆), où la structure des cas possibles de non-surprise et de surprise correspond à la matrice ci-dessous :

(D10)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]11
S[5,s]11
S[4,s]11
S[3,s]11
S[2,s]11
S[1,s]11

et à l’annonce du professeur suivante :

(S10)Un examen se déroulera la semaine prochaine mais la date de l’examen constituera une surprise. De plus, le fait que l’examen aura lieu constitue une certitude absolue.

Une telle annonce se révèle identique à l’énoncé précédent auquel s’applique la solution de Quine, avec cependant une importante différence : l’étudiant possède désormais la certitude que l’examen doit survenir. Et ceci a pour effet de rendre impossible que la surprise survienne le dernier jour. Pour cette raison, on note que S[7, 1] = 0 dans la matrice correspondante. La structure générale correspondant à ce type de définition est :

(D11)S[k, 0]S[k, 1]
S[n,s]10
S[n-1,s]11
………………………………

Et de même, on peut considérer la structure canonique (d’où la dénomination de structure triangulaire trouve sa justification) suivante, qui est celle de SEP(I∆) et qui correspond donc à 2-SEP(I∆) :

(D12)S[k, 0]S[k, 1]
S[2,s]10
S[1,s]11

Une telle structure correspond à l’annonce du professeur suivante :

(S12)Un examen se déroulera dans les deux prochains jours, mais la date de l’examen constituera une surprise. De plus, le fait que l’examen aura lieu constitue une certitude absolue.

On le voit, l’étudiant ne peut qu’être justifié ici le dernier jour, de manière appropriée, dans sa croyance que l’examen surviendra le dernier jour. Car la clause supplémentaire de l’énoncé selon laquelle il est absolument certain que l’examen se déroulera interdit à tous les cas de surprise de se manifester le dernier jour. Une telle version correspond notamment à la variation de SEP décrite par A. J. Ayer. La version correspondante est la suivante. Le joueur est autorisé à vérifier, avant que le paquet de cartes mélangé, qu’il contient bien l’as, le 2, le 3, …, le 7 de Pique. Et il est annoncé que le joueur ne pourra pas prévoir à l’avance et de manière justifiée, quand l’as de Pique sera découvert. Enfin les cartes, initialement cachées, sous découvertes une par une. Une telle version a pour but de rendre impossible, avant que la 7ème carte ne soit découverte, la croyance selon laquelle l’as de pique ne sera pas découvert. Et ceci a pour effet d’interdire à la solution de Quine de s’appliquer le dernier jour.

On peut remarquer ici que la clause additionnelle selon laquelle il est absolument certain que l’examen se déroulera pourrait être également remplacée, avec un effet équivalent, pas une formulation du type “Toutefois, si l’examen survient le dernier jour de la semaine, la prévision de l’étudiant sera effectuée après l’examen lui-même”. Une telle clause se révèle encore plus rigoureuse que celle décrite par Ayer et interdit ainsi à la surprise de se manifester le dernier jour.

Il convient maintenant de présenter une solution pour les versions de SEP associées à des structures correspondant à (D11). Une telle solution est basée sur une réduction récemment exposée par Ned Hall, dont il convient préalablement de rappeler le contexte. Dans la version de SEP considérée par Quine (1953), il apparaît clairement que le fait que l’étudiant doute que l’examen aura bien lieu dans la semaine, à une certaine étape du raisonnement, est autorisé. Quine ainsi se place délibérément dans une situation où l’étudiant dispose de la faculté de douter que l’examen aura véritablement lieu dans la semaine. Les versions décrites par Ayer (1973), Janaway (1989) mais aussi Scriven (1951) traduisent l’intention d’empêcher cette étape particulière dans le raisonnement de l’étudiant. De tels scénarios correspondent, dans l’esprit, à SEP(I∆). On peut également y rattacher la variation du Designated Student Paradox décrite par Sorensen (1982, 357)[11], où cinq étoiles – une étoile d’or et quatre étoiles d’argent – sont attribuées à cinq étudiants, sachant qu’il est indubitable que l’étoile d’or est placée au dos de l’étudiant qui a été désigné (designated student).

Cependant, Ned Hall (1999, 659-660) a récemment exposé une réduction, qui tend à réfuter les objections classiquement opposées à la solution de Quine. L’argumentation développée par Hall est la suivante :

We should pause, briefly, to dispense with a bad – though oft-cited – reason for rejecting Quine’s diagnosis. (See for example Ayer 1973 and Janaway 1989). Begin with the perfectly sound observation that the story can be told in such a way that the student is justified in believing that, come Friday, he will justifiably believe that an exam is scheduled for the week. Just add a second Iron Law of the School : that there must be at least one exam each week. (…) Then the first step of the student’s argument goes through just fine. So Quine’s diagnosis is, evidently, inapplicable.

Perhaps – but in letter only, not in spirit. With the second Iron Law in place, the last disjunct of the professor’s announcement – that E5 & ØJ(E5) – is, from the student’s perspective, a contradiction. So, from his perspective, the content of her announcement is given not by SE5 but by SE4 : (E1 & ØJ1(E1)) Ú … Ú (E4 & ØJ4(E4)). And now Quine’s diagnosis applies straightforwardly : he should simply insist that the student is not justified in believing the announcement and so, come Thursday morning, not justified in believing that crucial part of it which asserts that if the exam is on Friday then it will come as a surprise – which, from the student’s perspective, is tantamount to asserting that the exam is scheduled for one of Monday through Thursday. That is, Quine should insist that the crucial premise that J4(E1 Ú E2 Ú E3 Ú E4) is false – which is exactly the diagnosis he gives to an ordinary 4-day surprise exam scenario. Oddly, it seems to have gone entirely unnoticed by those who press this variant of the story against Quine that its only real effect is to convert an n-day scenario into an n-1 day scenario.

Hall met ainsi en parallèle deux types de situations. La première correspond à la situation, basée sur la surprise par erreur, dans laquelle l’analyse de Quine trouve classiquement sa place. La seconde correspond au type de situation envisagé par les opposants à la solution de Quine et en particulier Ayer (1973) et Janaway (1989). Dans cette dernière hypothèse, une version plus forte de SEP est prise en compte où on considère une seconde Règle d’Or de l’Ecole (Iron Law of the School), où il est admis que l’examen aura nécessairement lieu pendant la semaine. L’argumentation développée par Hall conduit à la réduction d’une version de n-SEP du second type à une version de (n-1)-SEP de type quinéen. Cette équivalence a pour effet d’annihiler les objections des opposants à la solution de Quine[12]. Car l’effet de cette réduction est de rendre finalement possible l’application de la solution de Quine dans les situations décrites par Ayer et Janaway. Dans l’esprit, le scénario envisagé par Ayer et Janaway correspond ainsi à une situation où la surprise n’est pas possible le jour n (c’est-à-dire S[n, 1] = 0). Ceci a effectivement pour effet de neutraliser la solution de Quine basée sur n-SEP(I□). Mais la réduction de Hall trouve alors à s’appliquer. Et son effet est de réduire un scénario correspondant à (D11) à une situation basée sur (D8). En conséquence, la réduction de Hall permet de réduire n-SEP(I∆) à (n-1)-SEP(I□). Elle a pour effet que toute version de SEP(I∆) pour une n-période se réduit à une version de SEP(I□) pour une (n-1)période (formellement n-SEP(I∆) º(n-1)-SEP(I□) pour n > 1). Ainsi, la réduction de Hall permet d’appliquer finalement la solution de Quine à SEP(I∆) [13].

  1. La notion de surprise correspondant à une structure disjointe

Il convient maintenant de s’intéresser au cas où la notion de surprise est basée sur une structure disjointe des cas possibles de non-surprise et de surprise. Soit SEP(II) la version correspondante. Intuitivement, une telle variation correspond à une situation où pour un jour donné de la n-période, il n’est pas possible d’avoir à la fois la non-surprise et la surprise. La structure de la matrice associée est telle que l’on a chaque jour, de manière exclusive, soit la non-surprise, soit la surprise.

A ce stade, il apparaît qu’une question préliminaire peut être posée : la solution de Quine ne peut-elle pas s’appliquer à SEP(II)? L’analyse précédente de SEP(I) montre toutefois qu’une condition nécessaire pour que la solution de Quine trouve à s’appliquer est qu’il existe durant la n-période au moins un jour où la non-surprise et la surprise sont à la fois possibles. Or une telle propriété est celle d’une structure conjointe et correspond à la situation qui est celle de SEP(I). Mais dans le présent contexte qui est celui d’une structure disjointe, la matrice associée vérifie à l’inverse “k S[k, 0] + S[k, 1] = 1. Par conséquent, ceci interdit à la solution de Quine de s’appliquer à SEP(II).

De même, on pourrait se poser la question de savoir si la réduction de Hall ne peut pas non plus s’appliquer à SEP(II). Ainsi, n’a-t-on donc pas une réduction de SEP(II) pour une n-période à SEP(I) pour une (n-1)-période? Il apparaît également que non. En effet, comme on vient de le voir, la solution de Quine ne peut pas s’appliquer à SEP(II). Or l’effet de la réduction de Hall est de réduire un scénario donné à une situation où la solution de Quine trouve finalement à s’appliquer. Mais, étant donné que la solution de Quine ne peut s’appliquer dans le contexte de SEP(II), la réduction de Hall se trouve également dans l’impossibilité de produire son effet.

Etant donné que la solution de Quine ne s’applique pas à SEP(II), il convient de s’attacher à fournir une solution adéquate pour la version de SEP correspondant à notion de surprise associée à une structure disjointe des cas de non-surprise et de surprise. Pour ce faire, il s’avère nécessaire de décrire une version plausible de SEP correspondant à une structure disjointe, ainsi que la structure correspondant à la version canonique de SEP(II).

De manière préliminaire, on peut observer que la version minimale correspondant à une version disjointe de SEP est celle qui est associée à la structure suivante, soit 2-SEP(II) :

(D13)S[1, 0]S[1, 1]
S[2,s]10
S[1,s]01

Cependant, pour des raisons qui deviendront plus claires un peu plus loin, la version correspondante de SEP(II) ne possède pas un degré de réalisme et de plausibilité suffisant pour constituer une authentique version de SEP, c’est-à-dire susceptible d’induire en erreur notre raisonnement.

Afin de mettre en évidence la version canonique de SEP(II) et l’énoncé correspondant, il convient tout d’abord de considérer l’observation, effectuée par plusieurs auteurs[14], selon laquelle le paradoxe émerge nettement, dans le cas de SEP(II), lorsque n est grand. Une caractéristique intéressante de SEP(II) est en effet que le paradoxe émerge intuitivement de manière plus nette lorsque de grandes valeurs de n sont prises en compte. Une illustration frappante de ce phénomène nous est ainsi fournie par la variation du paradoxe qui correspond à la situation suivante, décrite par Timothy Williamson (2000, 139) :

Advance knowledge that there will be a test, fire drill, or the like of which one will not know the time in advance is an everyday fact of social life, but one denied by a surprising proportion of early work on the Surprise Examination. Who has not waited for the telephone to ring, knowing that it will do so within a week and that one will not know a second before it rings that it will ring a second later?

La variation suggérée par Williamson correspond à l’annonce faite à quelqu’un qu’il recevra un coup de téléphone dans la semaine, sans pouvoir toutefois déterminer à l’avance à quelle seconde précise celui-ci surviendra. Cette variation souligne comment la surprise peut se manifester, de manière tout à fait plausible, lorsque la valeur de n est élevée. L’unité de temps considérée par Williamson est ici la seconde, rapportée à une période qui correspond à une semaine. La valeur correspondante de n est ici très élevée et égale à 604800 (60 x 60 x 24 x 7) secondes. Ceci illustre comment une grande valeur de n permet à la variation correspondante de SEP(II) de prendre place d’une façon à la fois plausible et réaliste. Cependant, il n’est pas véritablement indispensable de prendre en compte une valeur aussi grande de n. En effet, une valeur de n égale à 365 convient également très bien. Dans ce contexte, l’annonce du professeur qui correspond à une structure disjointe est alors la suivante :

(S14)Un examen aura lieu dans l’année à venir mais la date de l’examen constituera une surprise.

La définition correspondante présente alors la structure ci-dessous :

(D14)S[1, 0]S[1, 1]
S[365,s]10
………………………………
S[1,s]01

qui constitue une instance de la forme générale suivante :

(D15)S[1, 0]S[1, 1]
S[n,s]10
………………………………
S[1,s]01

Cette dernière structure peut être considérée comme correspondant à la version canonique de SEP(II), pour n grand. Dans la situation particulière associée à cette version de SEP, il apparaît qu’au moins un cas de surprise (par exemple si l’examen survient le premier jour) permet de valider, de manière tout à fait réaliste, l’annonce du professeur.

La forme de SEP(II) qui s’applique à la version standard de SEP est 7-SEP(II), qui correspond à l’énoncé classique:

(S7)Un examen se déroulera la semaine prochaine mais la date de l’examen constituera une surprise.

mais avec cette différence avec la version standard que le contexte est exclusivement ici celui d’une notion de surprise associée à une structure disjointe.

On peut remarquer ici que le cas de surprise qui correspond à SEP(II) est, de même que pour SEP(I), celui où l’étudiant prédit chaque jour – de manière fausse mais justifiée par un raisonnement basé sur l’induction-arrière – que l’examen n’aura lieu aucun jour de la semaine. Il s’agit ainsi du cas de surprise (e) où la prévision correspondante est fausse et justifiée de manière inadéquate. En outre, dans le cas de SEP(II), l’étudiant peut également ne pas remettre en cause le fait que l’examen puisse avoir lieu, et rejeter seulement le fait que l’examen puisse avoir lieu par surprise. Chaque jour, il prévoit alors que l’examen aura lieu, mais en considérant que ce dernier n’aura pas lieu par surprise. L’étudiant est alors amené à conclure que l’examen ne peut avoir lieu par surprise aucun jour de la n-période. Par conséquent, la prédiction correspondante se révélera vraie. Cependant, cela n’empêche pas finalement l’examen de survenir par surprise, puisque la prédiction de l’étudiant, fondée sur un raisonnement basé sur l’induction-arrière, sera finalement justifiée de manière inadéquate. Ainsi, le cas de surprise concerné est ici le cas (c), qui correspond à une prédiction vraie et justifiée de manière inadéquate[15].

A ce stade, on est désormais à même de déterminer l’étape fallacieuse dans le raisonnement de l’étudiant. Pour cela, il est utile de décrire le raisonnement de l’étudiant en termes de reconstitution de matrice. Le raisonnement de l’étudiant le conduit en effet à attribuer une valeur pour S[k, 0] et S[k, 1]. Et lorsqu’il a connaissance de l’annonce du professeur, le raisonnement de l’étudiant le conduit en effet à reconstruire la matrice correspondante telle que tous les S[k, 0] = 1 et S[k, 1] = 0, de la manière suivante (pour n = 7) :

(D16)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]10
S[5,s]10
S[4,s]10
S[3,s]10
S[2,s]10
S[1,s]10

On peut noter ici que l’ordre de reconstitution se révèle indifférent. A ce stade, on est en mesure d’identifier l’erreur de raisonnement qui est à l’origine de la conclusion erronée de l’étudiant. Il apparaît en effet que l’étudiant n’a pas tenu compte du fait que la surprise correspond ici à une structure disjointe. En effet, il aurait dû considérer ici que le dernier jour correspond à une instance propre de non-surprise et donc que S[n, 0] = 1. De même, il aurait dû considérer que le 1er jour (par exemple) correspond à une instance propre de surprise et donc S[1, 1] = 1. Le contexte étant celui d’une structure disjointe, il aurait pu légitimement ajouter que S[n, 1] = 0 et S[1, 0] = 0. A ce stade, la matrice partiellement reconstituée aurait alors été la suivante :

(D17)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]
S[5,s]
S[4,s]
S[3,s]
S[2,s]
S[1,s]01

L’étudiant aurait alors dû poursuivre son raisonnement de la manière suivante. Les instances propres de non-surprise et de surprise qui sont ici disjointes ne capturent pas en totalité la notion de surprise. Dans un tel contexte, la notion de surprise n’est pas capturée de manière exhaustive par l’extension et l’anti-extension de la surprise. Or une telle définition est conforme à la définition classique d’un prédicat vague, caractérisé par une extension et une anti-extension mutuellement exclusives et non-exhaustives[16]. Ainsi, la conception de la surprise associée une structure disjointe est celle d’une notion vague.

Ce qui précède permet maintenant d’identifier avec précision ce qui pêche dans le raisonnement de l’étudiant, lorsque la notion de surprise est une notion vague associée à une structure disjointe. Car l’erreur à l’origine du raisonnement fallacieux de l’étudiant réside dans l’absence de prise en compte du fait que la surprise correspond dans le cas d’une structure disjointe, à une notion vague, et comporte donc la présence d’une zone de pénombre correspondant à des cas-limites (borderline) entre la non-surprise et la surprise. Point n’est besoin ici de disposer d’une solution pour le paradoxe sorite. En effet, que ces cas-limites résultent d’une succession de degrés intermédiaires, d’une coupure précise entre la non-surprise et la surprise dont l’emplacement exact nous est impossible à connaître, etc. importe peu ici. Car dans tous les cas, l’existence des cas-limites interdit de conclure que S[k, 0] = 1, pour k ¹ 7 et k ¹ 1.

Plusieurs façons existent ainsi pour reconstituer la matrice en accord avec ce qui précède. L’une de ces façons (basée sur conception du vague fondée sur la logique floue) consiste à considérer qu’il existe une succession continue et graduelle de la non-surprise à la surprise. L’algorithme correspondant pour reconstituer la matrice est alors celui où le pas est donné par la formule 1/(np) où p correspond à une instance propre de surprise. Pour p = 3, on a ici 1/(7-3) = 0,25, avec S[3, 1] = 1. Et la matrice correspondante est ainsi la suivante :

(D18)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]0,750,25
S[5,s]0,50,5
S[4,s]0,250,75
S[3,s]01
S[2,s]01
S[1,s]01

où la somme des valeurs de la matrice associées à un jour donné est égale à 1. L’intuition qui préside à SEP(II) est ici que la non-surprise est totale le jour n, mais qu’il existe des degrés intermédiaires de surprise si (0 < si < 1), tels que plus on s’approche du dernier jour, plus l’effet de non-surprise est élevé. A l’inverse, l’effet de surprise est total dans les premiers jours, par exemple les jours 1, 2 et 3.

De manière alternative, on pourrait utiliser ici la notation équivalente suivante :

(D19)S[k, 0]S[k, 0,25]S[k, 0,5]S[k, 0,75]S[k, 1]
S[7,s]10000
S[6,s]01000
S[5,s]00100
S[4,s]00010
S[3,s]00001
S[2,s]00001
S[1,s]00001

avec une matrice associée qui comporte m colonnes, permettant ainsi un passage progressif de la non-surprise à la surprise, avec m-2 valeurs intermédiaires.

On peut remarquer ici que les définitions correspondant à SEP(II) qui viennent d’être décrites, sont telles qu’elles présentent une propriété de linéarité (formellement, “ki (1 < k £ n, 1 £ i < m, pour une matrice comportant m colonnes) si S[ksi] = 1 alors S[k-1, si] = 1 ou[17] S[k-1, si+1] = 1). Il apparaît en effet qu’une structure correspondant aux cas possibles de non-surprise et de surprise qui ne présenterait pas une telle propriété de linéarité, ne capturerait pas l’intuition correspondant à la notion de surprise. Pour cette raison, il paraît suffisant de limiter la présente étude aux structures de définitions satisfaisant cette propriété de linéarité.

On peut observer ici qu’une façon alternative de reconstituer la matrice correspondante aurait pu être utilisée. Il s’agit du cas où la nature vague de la surprise est déterminée par  l’existence d’une coupure précise entre les cas de non-surprise et de surprise, dont il ne nous est cependant pas possible de connaître l’emplacement exact. Dans ce cas, la matrice aurait pu être reconstituée par exemple de la manière suivante :

(D20)S[k, 0]S[k, 1]
S[7,s]10
S[6,s]10
S[5,s]10
S[4,s]01
S[3,s]01
S[2,s]01
S[1,s]01

A ce stade, on peut se demander si la version du paradoxe associée à SEP(II) ne peut pas être assimilée au paradoxe sorite. La réduction de SEP au paradoxe sorite est en effet la solution qui a été proposée par certains auteurs, notamment Dietl (1973) et Smith (1984). Toutefois, ces dernières solutions, basées sur l’assimilation de SEP au paradoxe sorite, constituent des analyses monistes, qui ne conduisent pas, à la différence de la présente solution, à deux solutions indépendantes basées sur deux versions structurellement différentes de SEP. En ce qui concerne par ailleurs les analyses proposées par Dietl et Smith, il n’apparaît pas clairement si chaque étape de SEP est pleinement assimilée à l’étape correspondante du paradoxe sorite, ainsi que l’a souligné Sorensen[18]. Mais dans le contexte d’une conception de la surprise correspondant à une structure disjointe, le fait que le dernier jour correspond à une instance propre de non-surprise peut être ici assimilé à l’étape de base du paradoxe sorite.

Cependant, il apparaît qu’une telle réduction de SEP au paradoxe sorite, limitée à la notion de surprise correspondant à une structure disjointe, ne prévaut pas. En premier lieu, il n’apparaît pas clairement si l’énoncé de SEP peut être traduit en une variation du paradoxe sorite, en particulier pour ce qui concerne 7‑SEP(II). Car la variation correspondante du paradoxe sorite serait trop rapide, ainsi que l’a déjà été noté Sorensen (1988)[19]. Et on peut penser en outre, ainsi que l’a fait remarquer Scott Soames (1999), que certains prédicats vagues ne sont pas susceptibles de donner lieu à une version correspondante du paradoxe sorite. Tel apparaît bien être le cas pour la notion de surprise associée à 7-SEP(II). Car comme l’a fait remarquer Soames[20], le continuum qui est sémantiquement associé aux prédicats donnant lieu au paradoxe sorite, peut être fragmenté en unités si petites que si l’une de ces unités est intuitivement F, alors l’unité suivante est également F. Or tel n’est pas le cas pour la variation constituée par 7-SEP(II), car les unités correspondantes (1 jour) ne sont pas assez fines par rapport à la période considérée (7 jours).

Enfin surtout, on l’a vu plus haut, la solution précédente pour SEP(II) s’applique, quelle que soit la nature de la solution adoptée pour le paradoxe sorite. Car c’est la méconnaissance de la structure sémantique de la notion vague de surprise qui se trouve à l’origine du raisonnement fallacieux de l’étudiant dans le cas de SEP(II). Et ce fait est indépendant de la solution qui devrait être apportée, dans le futur, pour le paradoxe sorite, que cette approche soit d’inspiration épistémologique, supervaluationniste, basée sur la logique floue, …, ou d’une toute autre nature.

  1. Conclusion

Je mentionnerai finalement que la solution qui vient d’être proposée s’applique, ce me semble, aux variations de SEP mentionnées par Sorensen (1982). En effet, la structure des formes canoniques de SEP(I□), SEP(I∆) ou SEP(II) indique que quelle que soit la version prise en compte, la solution qui s’applique ne nécessite pas de faire appel à un quelconque principe de rétention temporelle. Elle est également indépendante de l’ordre d’élimination et peut enfin s’appliquer lorsque la durée de la n-période n’est pas connue lors de l’annonce faite par le professeur.

Enfin, on peut mentionner que la stratégie développée dans la présente étude se révèle structurellement analogue à celle mise en œuvre dans mon analyse du paradoxe de Hempel (1999) : en premier lieu, établir une dichotomie qui permet de diviser le problème concerné en deux classes distinctes ; en second lieu, montrer que chacune des versions qui en résultent admet une résolution spécifique[21]. De manière similaire, dans la présente analyse de SEP, une dichotomie est effectuée et les deux catégories de problèmes qui en résultent donnent ensuite lieu à une solution indépendante. Ceci suggère que le fait que deux versions structurellement indépendantes se trouvent inextricablement mêlées dans les paradoxes philosophiques pourrait être une caractéristique plus répandue qu’on pourrait le penser de prime abord et pourrait également expliquer en partie la difficulté qui leur est propre[22].


REFERENCES

AYER, A. J. 1973, “On a Supposed Antinomy”, Mind 82, pp. 125-126.
BINKLEY, R. 1968, “The Surprise Examination in Modal Logic”, Journal of Philosophy 65, pp. 127-136.
CHALMERS, D. 2002, “The St. Petersburg two-envelope paradox”, Analysis 62, pp. 155-157.
CHOW, T. Y. 1998, “The Surprise Examination or Unexpected Hanging Paradox”, The American Mathematical Monthly 105, pp. 41-51.
DIETL, P. 1973, “The Surprise Examination”, Educational Theory 23, pp. 153-158.
FRANCESCHI, P. 1999, “Comment l’urne de Carter et Leslie se déverse dans celle de Hempel“, Canadian Journal of Philosophy 29, pp. 139-156.
HALL, N. 1999, “How to Set a Surprise Exam”, Mind 108, pp. 647-703.
HYDE, D. 2002 “Sorites Paradox”, The Stanford Encyclopedia of Philosophy (Fall 2002 Edition), E. N. Zalta (ed.), http ://plato.stanford.edu/archives/fall2002/entries/sorites-paradox.
JANAWAY, C. 1989, “Knowing About Surprises : A Supposed Antinomy Revisited”, Mind 98, pp. 391-410.
MONTAGUE, R. & KAPLAN, D. 1960, “A Paradox Regained”, Notre Dame Journal of Formal Logic 3, pp. 79-90.
O’ CONNOR, D. 1948, “Pragmatic paradoxes”, Mind 57, pp. 358-359.
QUINE, W. 1953, “On a So-called Paradox”, Mind 62, pp. 65-66.
SAINSBURY, R. M. 1995, Paradoxes, 2ème édition, Cambridge : Cambridge University Press.
SCRIVEN, M. 1951, “Paradoxical announcements”, Mind 60, pp. 403-407.
SHAW, R. 1958, “The Paradox of the Unexpected Examination”, Mind 67, pp. 382-384.
SMITH, J. W. 1984,  “The surprise examination on the paradox of the heap”, Philosophical Papers 13, pp. 43-56.
SOAMES, S. 1999, Understanding Truth, New York, Oxford : Oxford University Press.
SORENSEN, R. A. 1982, “Recalcitrant versions of the prediction paradox”, Australasian Journal of Philosophy 69, pp. 355-362.
SORENSEN, R. A. 1988, Blindspots, Oxford : Clarendon Press.
WILLIAMSON, T. 2000, Knowledge and its Limits, London & New York : Routledge.
WRIGHT, C. & SUDBURY, A. 1977, “The Paradox of the Unexpected Examination”, Australasian Journal of Philosophy 55, pp. 41-58.

[1] Je simplifie ici considérablement.

[2] Sans prétendre à l’exhaustivité.

[3] Dans ce qui suit, n désigne le dernier jour de la période correspondant à l’annonce du professeur.

[4] L’objet de la présente section n’est pas l’étude de la notion de surprise per se. Elle a davantage pour but en effet d’éliminer certaines connotations psychologiques au niveau de la notion de surprise, afin de mettre en évidence plus nettement la structure du paradoxe.

[5] En prenant en compte le fait que seules les instances positives (c’est-à-dire une prédiction associée à un jour où l’examen survient véritablement) sont prises en compte, et que les instances négatives (c’est-à-dire une prédiction associée à un jour où l’examen ne survient pas) sont purement et simplement ignorées. Ce point particulier est présenté de manière plus détaillée à la fin de la présente section.

[6] Soit 1-SEP, 2-SEP,…, n-SEP le problème pour respectivement 1 jour, 2 jours,…, n jours.

[7] Les cas où ni la non-surprise ni la surprise ne sont possibles un même jour (c’est-à-dire tels que S[k, 0] + S[k, 1] = 0) peuvent être purement et simplement ignorés.

[8] Cf. (1953, 65) : ‘It is notable that K acquiesces in the conclusion (wrong, according to the fable of the Thursday hanging) that the decree will not be fulfilled. If this is a conclusion which he is prepared to accept (though wrongly) in the end as a certainty, it is an alternative which he should have been prepared to take into consideration from the beginning as a possibility.’

[9] Cf. (1953, 66) : ‘If K had reasoned correctly, Sunday afternoon, he would have reasoned as follows : “We must distinguish four cases : first, that I shall be hanged tomorrow noon and I know it now (but I do not) ; second, that I shall be unhanged tomorrow noon and do not know it now (but I do not) ; third, that I shall be unhanged tomorrow noon and know it now ; and fourth, that I shall be hanged tomorrow noon and do not know it now. The latter two alternatives are the open possibilities, and the last of all would fulfill the decree. Rather than charging the judge with self-contradiction, let me suspend judgment and hope for the best.”‘

[10] A ce stade, on pourrait montrer ici que le principe de la solution de Quine s’applique également à des versions de SEP(I□) basées sur les trois autres cas de surprise (b), (c) et (d) définis plus haut (cf. s. 3). Toutefois, ces trois derniers cas de surprise présentent un intérêt qui apparaît essentiellement théorique, et qui ne correspond pas véritablement à des situations concrètes. A l’inverse, la solution de Quine s’applique directement à une situation qui apparaît tout à fait plausible. Pour appréhender le cas (b) de surprise pour 1-SEP, correspondant à une prévision vraie et non justifiée, il suffirait par exemple de considérer que l’étudiant effectue le jour 1 une prédiction qui n’est pas justifiée. On aurait alors l’émergence d’une variation de la solution de Quine appliquée à 1-SEP(I□) et au cas (b) de surprise, etc.

[11] ‘The students are then shown four silver stars and one gold star. One star is put on the back of each student.’.

[12] Hall réfute par ailleurs, mais sur un fondement différent, la solution proposée par Quine.

[13] La réduction de Hall peut aisément être généralisée. Elle est alors associée à une version de n-SEP(I∆) telle que la surprise ne pourra survenir les m derniers jours de la semaine. Une telle version est associée à une matrice telle que (a) $m (1 £ m < n) tel que S[nm, 0] = S[nm, 1] = 1 ; (b) “p > nm S[p, 0] = 1 et S[p, 1] = 0 ; (c) “q < nm S[q, 0] = S[q, 1] = 1. Dans cette nouvelle situation, une réduction de Hall généralisée s’applique à la version de SEP correspondante. Dans ce cas, la réduction de Hall étendue conduit à : n-SEP(I∆) º (nm)-SEP(I□).

[14] Cf. notamment Hall (1999, 661), Williamson (2000).

[15] On pourrait montrer également que la solution qui prévaut pour SEP(II) s’applique également à des versions de SEP(II) basées sur les deux autres cas de surprise (b) et (d) définis plus haut (cf. s. 3.). En effet, ces derniers cas de surprise peuvent être également appréhendés dans le cadre de la présente solution pour SEP(II) et d’énoncés correspondants. Ces deux derniers cas de surprise présentent toutefois un intérêt limité, car ils conduisent à des variations dont la nature est essentiellement théorique.

[16] Cette définition d’un prédicat vague est empruntée à Soames. Considérant l’extension et l’anti-extension d’un prédicat vague, Soames (1999, 210) précise ainsi : “These two classes are mutually exclusive, though not jointly exhaustive”.

[17] Il s’agit d’un ou exclusif.

[18] Cf. Sorensen (1988, 292-293) : ‘Indeed, no one has simply asserted that the following is just another instance of the sorites.

  1. Base step : The audience can know that the exercise will not occur on the last day.
  2. Induction step : If the audience can know that the exercise will not occur on day n, then they can also know that the exercise will not occur on day n – 1

iii.            The audience can know that there is no day on which the exercise will occur.

Why not blame the whole puzzle on the vagueness of ‘can know’? (…) Despite its attractiveness, I have not found any clear examples of this strategy.’

[19] Cf. (1988, 324): ‘One immediate qualm about assimilating the prediction paradox to the sorites is that the prediction paradox would be a very ‘fast’ sorites. (…) Yet standard sorites arguments involve a great many borderline cases.’

[20] Cf. Soames (1999, 218): ‘A further fact about Sorites predicates is that the continuum semantically associated with such a predicate can be broken down into units fine enough so that once one has characterized one item as F (or not F), it is virtually irresistible to characterize the same item in the same way’.

[21] Un exemple caractéristique de ce type d’analyse est également fourni par la solution pour le paradoxe des deux enveloppes (two-envelope paradox) décrite par David Chalmers (2002, 157) : ‘The upshot is a disjunctive diagnosis of the two-envelope paradox. The expected value of the amount in the envelopes is either finite or infinite. If it is finite, then (1) and (2) are false (…). If it is infinite, then the step from (2) to (3) is invalid (…)’.

[22] Je suis reconnaissant envers Timothy Chow, Ned Hall, Claude Panaccio et plusieurs experts anonymes pour des commentaires très utiles concernant de précédentes versions de cet article.

Comment l’Urne de Carter et Leslie se Déverse dans celle de Hempel

Comment l’Urne de Carter et Leslie se Déverse dans celle de Hempel

Paul FRANCESCHI

Université de Corse

post-publication d’un article publié dans the Canadian Journal of Philosophy, Vol.29, July 1999, pp. 139-56

Le philosophe mit le pied sur la première marche du futurotron. C’était la première fois qu’il utilisait cet appareil pour ses recherches. Bien qu’il vienne seulement d’être mis au point et qu’il ne soit encore qu’à l’état de prototype, ce futurotron pouvait décidément rendre de grands services. De nombreux chercheurs de différentes disciplines l’avaient d’ailleurs déjà utilisé de manière très fructueuse. Le philosophe prit place aux côtés du pilote sur le siège avant de la machine. – Quel est le principe de fonctionnement de la machine? demanda-t-il. – Ce serait un peu long à vous expliquer. C’est basé sur la mécanique quantique. Le pilote demanda, pressé: – Quelle époque avez-vous choisie? – Je souhaite effectuer une investigation en l’an 2150. Le pilote plaça le sélecteur sur l’année 2150. – Bien. Nous allons commencer. Etes-vous prêt? – Oui. Le futurotron se mit à ronronner. Un flash lumineux intense s’ensuivit. Au bout de quelques minutes, une image floue apparut sur l’écran géant du prototype. Peu à peu, l’image devint plus nette, et puis finalement parfaitement précise. Le philosophe se mit à observer l’écran avec une extrême acuité. Il distinguait nettement des êtres, d’apparence humaine, qui étaient assis dans ce qui semblait être une salle de conférences. En les regardant attentivement, il constata que ceux-ci présentaient les caractéristiques de notre espèce actuelle. Leur physionomie était humaine, mais pourtant il y avait chez eux quelque chose de différent… Dans ce qui paraissait être une projection publique, le philosophe distinguait nettement un faisceau lumineux et coloré qui provenait du front de l’un des êtres placé au centre de la salle, et s’élargissait pour former ce qui constituait l’image projetée d’une véritable scène tridimensionnelle. Les autres individus, assis autour, regardaient attentivement la scène. La projection était d’une netteté parfaite, et d’un réalisme saisissant. On y distinguait nettement deux personnes qui déambulaient en conversant, dans un paysage représentant une plage superbe, battue par les vagues. Le pilote interrompit soudain: – Voilà, c’est fini. Nous ne disposons que d’une minute par séance. Le coût de l’appareil est très élevé, vous savez. Il ajouta: – Il reste juste une petite formalité à accomplir. Voulez-vous avoir l’amabilité de remplir avec soin ce formulaire. Vous devez indiquer le motif de l’utilisation de la machine. C’est pour nos statistiques. Le passager parcourut du regard les feuillets tendus par le pilote. Il s’attarda sur la rubrique “Philosophie”. Il sauta quelques paragraphes et parvint à la catégorie intitulée “Paradoxes”. Celle-ci comportait plusieurs noms, qu’il convenait de cocher de manière adéquate: Eubulide/Menteur, Eubulide/Sorites, Russell, Cantor, Burali-Forti, Carter-Leslie, Goodman, Hempel… Le philosophe prit tranquillement un stylo et cocha la case Carter-Leslie. Puis sans hésiter, il plaça le stylo deux cases en-dessous, et cocha également: Hempel. – Voilà, c’est fait. – Vous avez coché deux cases, commenta le pilote. – Oui, en effet, répondit le passager. – En principe, on ne doit cocher qu’une seule rubrique. – Ce serait un peu long à vous expliquer… Mais n’ayez crainte, cela ne faussera pas vos statistiques.

I Le problème de Hempel

Le problème de Hempel (Hempel’s problem, soit HP) est basé sur le fait que les deux assertions suivantes:(H) Tous les corbeaux sont noirs (H’) Tout ce qui est non-noir est un non-corbeausont logiquement équivalentes. La structure logique de (H) est de la forme:(H1) Tous les X sont Y soit ∀x (Xx → Yx), alors que celle de (H’) est la suivante: (H1‘) Tous les non-Y sont non-X soit ∀x (~Yx → ~Xx). De fait, la structure de la forme contraposée (H1‘) est clairement équivalente à celle de (H1). Il en résulte que la découverte d’un corbeau noir confirme (H) et également (H’), mais aussi que la découverte d’une chose non-noire qui n’est pas un corbeau telle qu’un flamand rose ou même un parapluie gris, confirme (H’) et donc (H). Cette dernière conclusion apparaît comme paradoxale. Les propositions (H1) et (H1‘) sont basées sur quatre propriétés X, ~X, Y et ~Y, correspondant respectivement à corbeaunon-corbeaunoir, et non-noir, dans la version originale de HP. Ces quatre propriétés déterminent elles-mêmes quatre catégories d’objets: XY, X~Y, ~XY et ~X~Y, qui correspondent aux corbeaux noirscorbeaux non-noirs, non-corbeaux noirs et non-corbeaux non-noirs. On peut observer ici qu’un corbeau est défini de manière précise dans la taxinomie au sein de laquelle il s’insère. Une catégorie comme celle des corbeaux peut être considérée comme bien définie, car elle est basée sur un ensemble de critères précis définissant l’espèce corvus corax et permettant l’identification de ses instances. Il apparaît aussi qu’on peut construire sans difficulté des versions de HP où une variation par rapport à la classe des X est opérée. Si l’on assimile la classe des X à celle des tulipes, ou bien des dauphins, etc. en adaptant de manière corrélative la propriété Y, on obtient ainsi autant de versions valables de HP. Il apparaît ainsi que des changements peuvent être opérés au niveau de la classe X sans que cela n’affecte la problématique inhérente à HP. De même, la propriété noir peut être spécifiée avec précision, à partir d’une taxinomie des couleurs établie par rapport aux longueurs d’onde de la lumière[1]. De plus, il est permis d’envisager des variations par rapport à la propriété Y. On pourra choisir ainsi des propriétés telles que d’une longueur inférieure à 50 cmvivant moins de 10 ans, etc. De telles variations conduisent également à des versions acceptables de HP. Enfin, on peut constater que la propriété non-noir peut faire l’objet d’une définition qui ne souffre pas d’ambiguïté, à partir notamment de la taxinomie précise des couleurs qui vient d’être mentionnée. De même, si on prend en considération des variations de la propriété Y telles que inférieur à 40 cm, ou bien d’un diamètre supérieur à 25 cm, etc., on parvient à des définitions de la propriété non-Y qui de même que non-noir, sont établies avec précision, et conduisent par ailleurs à des versions de HP comportant la même problématique que la version originale. Ainsi, la classe des X, de même que les propriétés Y et non-Y pour HP peuvent faire l’objet d’une définition précise et non ambiguë. De plus, des variations opérées sur ces dernières conduisent à des versions acceptables de HP. Il n’en est pas de même pour la classe des non-X.

II La classe de référence des Z

La notion de non-corbeau présente dans la version originale de HP conduit à mettre en évidence un important problème. Qu’est-ce qui constitue une instance d’un non-corbeau? Intuitivement, un merle bleu, un flamand rose, un parapluie gris, voire même un entier naturel, constituent des non-corbeaux. On se trouve ainsi confronté à la définition d’une nouvelle classe de référence – appelons-la Z – incluant les X et les non-X. La classe Z permet de définir de manière complémentaire celle des non-X, et dans la version originale de Hempel, celle des non-corbeaux. Ainsi Z est la classe de référence implicite par rapport à laquelle la définition de la classe X permet celle des non-X. Doit-on alors envisager une classe Z qui aille jusqu’à inclure les objets abstraits? Faut-il considérer une notion de non-corbeau qui englobe des entités abstraites tels que les entiers naturels et les nombres complexes? Ou bien faut-il se limiter à une classe Z qui n’embrasse que des choses concrètes? Une telle discussion a son importance, car les objets abstraits sont en nombre infini, alors que les objets concrets individualisés ne sont présents qu’en nombre fini. Ce fait est de nature à influer ultérieurement de manière déterminante sur l’application éventuelle d’un raisonnement bayesien. On pourrait ainsi avoir une classe de référence Z comprenant à la fois les objets abstraits (les entiers naturels, les nombres réels et complexes, etc.) et les objets concrets tels que les artefacts, mais aussi les entités naturelles telles que les humains, les animaux, les végétaux, les météorites, les astres, etc. Une telle classe de référence est définie de manière très extensive. Et un tel choix a pour conséquence que la découverte de n’importe quel objet[2] confirme (H’) et donc (H). A ce stade, n’importe quoi confirme (H). Notons qu’on peut avoir aussi une conception de la classe Z incluant tous les objets de nature concrète qui viennent d’être cités, mais excluant cette fois les objets abstraits. Les instances de cette classe sont en nombre fini, de même que le cardinal de l’ensemble correspondant: la classe de référence Z inclut alors les animaux, les végétaux, les étoiles, etc. Mais de manière alternative, on pourrait encore considérer la classe Z associant les corbeaux (corvus corax) et les goélands d’Audouin[3] (larus audouinii). Dans ce cas, les instances de la classe des X (corvus corax) sont en nombre supérieur à celles de la classe des non-X (larus audouinii). Et on a toujours la version correspondante de HP[4]. Enfin, rien ne semble interdire, à un niveau très restrictif, de choisir une classe Z composée de la classe X, additionnée seulement d’un unique élément tel qu’une tulipe rouge. Avec cette définition de Z, on a encore une version minimale de HP. Bien sûr, n’importe quel objet, ajouté à la classe des X et constituant celle des non-X conviendra, et confirmera alors à la fois (H’) et (H). Ainsi, n’importe quel objet ~X~Y pourra confirmer (H). Les remarques qui viennent d’être exposées appellent toutefois une objection immédiate. A des degrés divers, il est permis de penser que le choix de chacune des classes de référence Z venant d’être évoquées, relève de l’arbitraire. Car il est permis de rejeter sur ces bases des définitions extrêmes de Z telles que celle définie plus haut et incluant tous les objets abstraits. De même, une classe Z englobant les entiers naturels ou les nombres complexes peut aussi être éliminée. La classe X est définie par rapport aux objets concrets que sont les corbeaux, et on n’a pas de raison particulière de choisir une classe Z qui englobe les entités abstraites. De même, on pourra rejeter la définition de Z basée sur une restriction purement artificielle, associant simplement à X un objet déterminé tel qu’une tulipe rouge. Car je peux choisir, de manière arbitraire, l’objet qui constitue le complément de X, c’est-à-dire définir Z comme je l’entends. Une telle conception extrême apparaît comme sans rapport avec la définition initiale de X. Une classe Z ainsi définie n’est pas homogène. Et on n’a pas de justification pour légitimer l’association d’une tulipe rouge à la classe des corbeaux pour construire celle des Z. De même, l’association au sein d’une même classe Z des corbeaux et des goélands d’Audouin, apparaît comme un choix que rien ne vient légitimer. Pourquoi pas en effet l’association des corbeaux et des chardonnerets? De telles associations sont symptomatiques d’une sélection purement artificielle. Ainsi, les choix des classes de référence Z évoquées plus haut révèlent-ils une nature arbitraire et artificielle. En effet, ne doit-on pas s’attacher à rechercher une classe Z qui soit la plus naturelle et la plus homogène possible, compte tenu de la définition des X? On peut penser qu’on doit s’efforcer d’opérer une détermination de la classe des Z qui soit la plus objective possible. Dans la version originale de HP, le choix pour la classe X des corbeaux ne détermine-t-il pas implicitement une classe Z qui soit directement en rapport avec celle des corbeaux? Une classe Z englobant naturellement celle des corbeaux telle que celle des corvidés, ou bien celle des oiseaux, apparaît comme une bonne candidate. Car une telle classe est au moins déterminée implicitement par le contenu de la classe X. Mais avant d’analyser des versions construites selon ce fondement, il convient de s’intéresser préalablement à des versions non paradoxales de HP.

III L’analogie avec l’urne

Il est admis de manière notoire que certaines versions[5] de HP ne conduisent à aucun paradoxe. Tel est le cas notamment si on envisage une classe de référence Z matérialisée par des boîtes, ou bien un jeu de cartes. On peut considérer également une version de HP associée à une urne. On considère ainsi une classe X où les objets sont en nombre fini, et qui ne comprend que des boules et des tétraèdres. La classe Y est elle-même réduite à deux couleurs: rouge et vert. On a ainsi quatre types d’objets: des boules rouges, des boules vertes, des tétraèdres rouges et des tétraèdres verts. Dans ce contexte, on a la version suivante de HP: (H2) Toutes les boules sont rouges (H2‘) Tous les objets non-rouges sont des non-boules Il apparaît ici que le cas des tétraèdres rouges peut être ignoré. En effet, leur rôle est indifférent et on peut ainsi se désintéresser de leur présence dans l’urne. Ils peuvent être assimilés à des objets parasites, dont la présence éventuelle dans l’urne ne possède pas d’importance. On est ainsi amené à prendre en considération une urne contenant des objets significatifs constitués par des boules rouges, des boules vertes, et des tétraèdres verts. Et le fait que les objets non-rouges ne puissent être que verts, et que les non-boules ne puissent être que des tétraèdres conduit à considérer, de manière équivalente: (H3) Toutes les boules sont rouges (H3‘) Tous les objets verts sont des tétraèdres qui constitue clairement une version non paradoxale de HP. En effet, le tirage d’une boule rouge confirme (H3) et (H3‘), alors que le tirage d’un tétraèdre vert confirme (H3‘) et (H3). Considérons maintenant le cas où l’urne contient six objets significatifs[6]. On vient de tirer trois boules rouges et un tétraèdre vert (le tirage est 3-0-1[7]) et on fait alors l’hypothèse (H3). A ce stade, la probabilité que toutes les boules soient rouges, correspond à trois tirages (3-0-3, 4-0-2 et 5-0-1) parmi six possibles (3-0-3, 3-1-2, 3-2-1, 4-0-2, 4-1-1, 5-0-1). De même, la probabilité que tous les objets verts soient des tétraèdres, est identique. Ainsi, P(H3) = P(H3′) = 1/2 et de même, P(~H3) = P(~H3′) = 1/2. Ces probabilités initiales étant posées, considérons maintenant le cas où l’on vient d’effectuer un nouveau tirage dans l’urne. On tire une autre boule rouge (le tirage est 4-0-1). Ceci correspond à trois compositions possibles de l’urne (4-0-2, 4-1-1, 5-0-1). Soit E l’événement consistant dans le tirage d’une boule rouge dans l’urne. On a alors la probabilité de tirer une boule rouge si toutes les boules de l’urne sont rouges, c’est-à-dire P(E, H3) telle que P(E, H3) = 2/3, puisque deux cas (4-0-2, 5-0-1) correspondent au fait que toutes les boules soient rouges. De même, P(E, ~H3) = 1/3. La situation est identique si on considère P(E, H3‘) et P(E, ~H3‘). On est alors à même de calculer la probabilité a posteriori que toutes les boules soient rouges à l’aide de la formule de Bayes: P'(H3) = [P(H3) x P(E, H3)] / [P(H3) x P(E, H3) + P(~H3) x P(E, ~H3)] = (0,5 x 2/3) / (0,5 x 2/3 + 0,5 x 1/3) = 2/3. Et P'(~H3) = 1/3. On a des résultats identiques pour P'(H3‘) et P'(~H3‘). Ainsi, P'(H3) > P(H3), et P'(H3‘) > P(H3‘), de sorte que l’hypothèse (H3) de même que l’hypothèse équivalente (H3‘) se trouvent confirmées par le tirage d’une nouvelle boule rouge. Examinons enfin la situation où, en lieu et place d’une boule rouge, on tire dans l’urne un tétraèdre vert (le tirage est 3-0-2). Soit donc F l’événement consistant dans le tirage d’un tétraèdre vert. Dans ce cas, les combinaisons possibles sont au nombre de trois (3-0-3, 3-1-2, 4-0-2). Mais parmi celles-ci, deux (3-0-3, 4-0-2) correspondent à une situation où les hypothèses (H3) et (H3‘) sont confirmées. Ainsi, P(F, H3) = P(F, H3‘) = 2/3 et P(F, ~H3) = P(F, ~H3‘) = 1/3. Le calcul bayesien fournit les mêmes résultats que dans l’hypothèse précédente du tirage d’une boule rouge. Ainsi, dans l’hypothèse du tirage d’un tétraèdre vert, on calcule les probabilités a posteriori P'(H3) = P'(H3‘) = 2/3 et P'(~H3) = P'(~H3‘) = 1/3. Ainsi, le tirage d’un tétraèdre vert confirme à la fois (H3‘) et (H3). Il est intéressant de constater que l’on peut construire aisément des versions de HP permettant d’établir de manière non paradoxale le raisonnement précédent. Considérons ainsi un bloc minéral cubique de 1m de côté. Un tel objet de 1m3 est divisé en 1000 blocs cubiques de 1 dm3, constitués soit de quartz, soit d’albite. On examine cinquante de ces blocs, et on constate que plusieurs d’entre eux sont constitués d’albite de qualité gemme. On est amené à faire l’hypothèse que tous les blocs d’albite sont de qualité gemme. On a alors la version suivante de HP: (H4) Tous les blocs d’albite sont de qualité gemme (H4‘) Tous les blocs de qualité non-gemme ne sont pas de l’albite ce qui équivaut à: (H5) Tous les blocs d’albite sont de qualité gemme (H5‘) Tous les blocs de qualité non-gemme sont du quartz où on a bien l’équivalence entre (H5) et (H5‘) et où un raisonnement bayesien correct peut s’établir. Un tel exemple (appelons-le l’urne minérale) peut également être transposé à d’autres propriétés X et Y, dès lors que des conditions identiques sont préservées.

IV Une solution au problème

On doit, compte tenu de ce qui a été exposé plus haut[8], s’attacher à mettre en évidence une définition de la classe Z qui ne présente pas un caractère arbitraire et artificiel, mais s’avère au contraire la plus naturelle et la plus homogène possible, compte tenu de la définition de X qui est donnée. Considérons pour cela la version suivante[9] de HP: (H6) Tous les autours des palombes cyrno-sardes possèdent une envergure inférieure à 3,50 m (H6‘) Tous les oiseaux possédant une envergure supérieure à 3,50 m ne sont pas des autours des palombes cyrno-sardes Dans cette version particulière de (H’), la classe X est celle des autours des palombes cyrno-sardes[10], et la classe de référence Z est celle des oiseaux. Cette dernière classe présente un rapport évident avec celle des autours des palombes cyrno-sardes. Il est permis de penser qu’une telle manière de définir Z en fonction de X constitue une manière naturelle. En effet, une telle définition ne présente pas un caractère aussi évidemment arbitraire que cela était le cas avec les exemples de classes Z mentionnés plus haut. Bien sûr, on peut observer qu’il est possible de choisir, de manière plus restreinte mais aussi naturelle, une classe Z correspondant au genre accipiter. Une telle classe présente un caractère homogène. Elle comprend notamment les espèces accipiter gentilis (autour des palombes) mais également accipiter nisus (épervier d’Europe), accipiter novaehollandiae (autour variable), accipiter melanoleucus (autour noir et blanc). Toutefois, de manière alternative, et selon le même point de vue, on pourrait également étendre la classe Z aux instances de la famille des accipitridés[11] – plus étendue – comprenant à la fois le genre accipiter qui vient d’être mentionné, mais également les genres milvus (milan), buteo (buse), aquila, etc. Une telle classe inclut notamment les espèces milvus migrans (milan noir), milvus milvus (milan royal), buteo buteo (buse variable), aquila chrysaetos (aigle royal), etc. Ces différentes définitions acceptables de la classe Z trouvent leur justification dans la taxinomie au sein de laquelle s’insère l’autour des palombes cyrno-sarde. De manière plus systématique, ce dernier appartient à la sous-espèce accipiter gentilis arrigonii, à l’espèce accipiter gentilis, au genre accipiter, à la famille des accipitridés, à l’ordre des falconiformes, à la classe des oiseaux, au sous-embranchement des vertébrés, à l’embranchement des chordés[12], au règne animal, etc. Il en résulte que les variations suivantes de (H’) sont acceptables, dans le sens qui vient d’être défini: (H7′) Tous les autours des palombes possédant une envergure supérieure à 3,50 m ne sont pas des autours des palombes cyrno-sardes (H8′) Tous les autours possédant une envergure supérieure à 3,50 m ne sont pas des autours des palombes cyrno-sardes (H9′) Tous les accipitridés possédant une envergure supérieure à 3,50 m ne sont pas des autours des palombes cyrno-sardes (H10′) Tous les falconiformes possédant une envergure supérieure à 3,50 m ne sont pas des autours des palombes cyrno-sardes (H11′) Tous les oiseaux possédant une envergure supérieure à 3,50 m ne sont pas des autours des palombes cyrno-sardes (H12′) Tous les vertébrés possédant une envergure supérieure à 3,50 m ne sont pas des autours des palombes cyrno-sardes (H13′) Tous les chordés possédant une envergure supérieure à 3,50 m ne sont pas des autours des palombes cyrno-sardes (H14′) Tous les animaux possédant une envergure supérieure à 3,50 m ne sont pas des autours des palombes cyrno-sardes On a ainsi plusieurs versions de (H’), correspondant à des variations de la classe Z qui sont elles-mêmes rendues possibles par le fait que l’autour des palombes cyrno-sarde appartient à n catégories, déterminées par la taxinomie à laquelle il appartient. Et de fait, lorsque je rencontre un autour des palombes appartenant à la forme nominale (accipiter gentilis gentilis), il s’agit à la fois d’un autour des palombes (accipiter gentilis) non-cyrno-sarde (non-accipiter gentilis arrigonii), d’un autour (accipiter) non-autour des palombes cyrno-sarde, d’un accipitridé non-autour des palombes cyrno-sarde, d’un falconiforme non-autour des palombes cyrno-sarde, d’un oiseau (aves) non-autour des palombes cyrno-sarde, mais aussi d’un vertébré non-autour des palombes cyrno-sarde, d’un chordé non-autour des palombes cyrno-sarde, d’un animal non-autour des palombes cyrno-sarde. Ainsi, l’instance d’accipiter gentilis gentilis que je viens d’observer, appartient à la fois à toutes ces catégories. Et lorsque je rencontre une baleine grise, ce n’est pas un oiseau non-autour des palombes cyrno-sarde, mais c’est bien un vertébré non-autour des palombes cyrno-sarde, ainsi qu’un chordé non-autour des palombes cyrno-sarde, de même qu’un animal non-autour des palombes cyrno-sarde. D’une manière générale, un objet x découvert appartient à n niveaux dans la taxinomie au sein de laquelle il s’insère. Il appartient ainsi à une sous-espèce[13], à une espèce, à un sous-genre, à un genre, à un super-genre, à une sous-famille, à une famille, à une super-famille, à un sous-embranchement, à un embranchement, à un règne… On peut assigner à la sous-espèce le niveau[14] 1 de la taxinomie, à l’espèce le niveau 2, …, à la super-famille le niveau 8, etc. Et si au sein de (H), la classe X se situe au niveau p, il est clair que Z doit se situer à un niveau q tel que q > p. Mais comment fixer Z à un niveau q qui ne soit pas arbitraire? Car la classe de référence Z correspond à un niveau d’intégration. Mais où doit-on s’arrêter? Doit-on fixer Z au niveau de l’espèce, du sous-genre, du genre, …, du règne? On ne possède pas de critère objectif permettant de choisir un niveau q parmi les possibilités qui sont offertes. Je peux choisir q proche de p en opérant par restriction; mais de manière aussi concluante, je suis autorisé à choisir q éloigné de p, en appliquant un principe d’extension. Alors pourquoi choisir telle classe de référence définie de manière restrictive plutôt que telle autre définie de façon extensive? On ne possède pas en réalité de critère pour légitimer le choix, selon que l’on procède par restriction ou par extension, de la classe Z. Dès lors, il apparaît que celle-ci ne peut être définie qu’arbitrairement. Et il s’ensuit ici nettement que la détermination de la classe des Z et donc des non-X relève de l’arbitraire. Mais le choix de la classe de référence Z se révèle fondamental. Car selon que je choisirai telle ou telle classe de référence Z, il en résultera qu’un objet x donné confirmera ou non (H). Pour tout objet x, je peux construire une classe Z telle que xappartient à non-X, comme je peux choisir une classe Z telle que x n’appartient pas à non-X. Ainsi, ce choix est laissé à mon arbitraire. Pour un objet x donné, je peux construire une classe Z telle que cet objet confirme (H) et une autre classe Z’ telle que cet objet ne confirme pas (H). Bien sûr, dans le cas où Z est choisi arbitrairement, le raisonnement bayesien propre à HP “fonctionne”, mais correspond à un point de vue arbitraire et artificiel: ayant trouvé l’objet x, (H) est confirmée. Mais on peut aussi bien choisir, de manière aussi artificielle et plus restrictive, une classe Z dont x est absent et où x ne confirme pas (H). Ainsi, on n’est pas autorisé à conclure, de manière objective, que la découverte de l’objet x confirme (H). Car raisonner ainsi reviendrait à conférer une valeur universelle et générale à un point de vue qui n’est que l’expression d’un choix arbitraire. Comment ce résultat peut-il se concilier avec les faits mentionnés plus haut[15], concernant l’existence de versions non paradoxales de HP? Il convient d’observer ici que le raisonnement bayesien peut s’établir dans chaque cas où la classe des Z est finie, et où ce fait est connu préalablement à l’expérience[16]. On peut alors conclure à un décalage bayesien. Mais à ce stade, il convient de distinguer les cas où la classe Z est déterminée, préalablement à l’expérience, par un critère objectif, et les cas où elle ne l’est pas. Dans le premier cas, le contenu de la classe Z est donné préalablement à l’expérience, et la classe Z n’est donc pas choisie de manière arbitraire, mais selon un critère objectif. Dès lors, le raisonnement bayesien est correct et fournit des informations pertinentes. Tel est notamment le cas lorsqu’on considère une version de HP appliquée à une urne, ou encore une version telle que l’urne minérale. Dans cette dernière hypothèse, la composition de la classe Z est fixée à l’avance. On a alors une différence importante avec le critère de Nicod[17]: un objet ~X~Y confirme (H) et un objet XY confirme (H’). A l’inverse, lorsque la classe Z n’est pas fixée et déterminée préalablement à l’expérience par un critère objectif, on peut choisir subjectivement cette dernière à n’importe quel niveau d’extension ou de restriction, mais les conclusions issues du raisonnement bayesien doivent être considérées comme purement arbitraires, et ne présentent donc pas de valeur objective. Car on ne possède pas alors de fondement et de justification pour choisir tel ou tel niveau de restriction ou d’extension. Ainsi, dans ce cas, le critère de Nicod selon lequel tout objet ~X~Y est neutre vis-à-vis de (H) et tout objet XY est neutre vis-à-vis de (H’) trouve à s’appliquer. On le voit, la présente solution a pour effet de préserver l’équivalence d’une proposition et de sa contraposition. Et de même, le principe de la confirmation d’une généralisation par chacune de ses instances s’en trouve également conservé.

V Une solution commune pour le problème de Hempel et l’Argument de l’Apocalypse

L’Argument de l’Apocalypse (Doomsday Argument, soit DA) attribué à Brandon Carter, a été décrit par John Leslie (1992). DA peut être exposé de la manière suivante. Considérons l’événement A: l’extinction définitive de l’espèce humaine se produira avant l’an 2150. On peut estimer à une chance sur 100 la probabilité que cette disparition survienne: P(A) = 0,01. Soit également ~A l’événement: l’extinction définitive de l’espèce humaine ne se produira pas avant 2150. Soit encore E l’événement: je vis durant les années 1990. On peut par ailleurs estimer aujourd’hui à 50 milliards le nombre d’humains ayant existé depuis la naissance de l’humanité: soit H1997 un tel nombre. De même, la population actuelle peut être évaluée à 5 milliards: P1997 = 5×109. On calcule ainsi qu’un humain sur dix, si l’événement A survient, aura connu les années 1990. On évalue alors la probabilité que l’humanité soit éteinte avant 2150, si j’ai connu les années 1990: P(E, A) = 5×109/5×1010 = 0,1. Par contre, si l’humanité passe le cap des années 2150, on peut penser qu’elle sera appelée à une expansion beaucoup plus importante, et que le nombre des humains pourra s’élever par exemple à 5×1012. Dans ce cas, la probabilité que l’humanité ne soit pas éteinte après 2150, si j’ai connu les années 1990 s’évalue ainsi: P(E, ~A) = 5×109/5×1012 = 0,001. Ceci permet maintenant de calculer la probabilité a posteriori de l’extinction de l’espèce humaine avant 2150, à l’aide de la formule de Bayes: P'(A) = [P(A) x P(E, A)] / [P(A) x P(E, A) + P(~A) x P(E, ~A)] = (0,01 x 0,1) / (0,01 x 0,1 + 0,99 x 0,001) ≈ 0,5025. Ainsi, la prise en compte du fait que je vis actuellement fait passer la probabilité de l’extinction de l’espèce humaine avant 2150 de 0,01 à 50,25. J’ai présenté dans mon article “Une Solution pour l’Argument de l’Apocalypse” une solution à DA, dont les lignes essentielles peuvent être ainsi décrites. L’argument de DA est basé sur une classe de référence unique qui est celle deshumains[18]. Mais comment cette classe de référence doit-elle être définie? Faut-il la limiter aux seuls représentants de notre sous-espèce actuelle Homo sapiens sapiens? Ou bien doit-on l’étendre à tous les représentants de l’espèceHomo sapiens, en incluant cette fois, outre Homo sapiens sapiensHomo sapiens neandertalensis…? Ou faut-il inclure dans la classe de référence l’ensemble du genre Homo, englobant alors tous les représentants successifs de Homo erectusHomo habilisHomo sapiens, etc.? Et n’est-il pas nécessaire d’aller jusqu’à prévoir une classe plus étendue encore, incluant tous les représentants d’un super-genreS, composé non seulement du genre Homo, mais aussi des nouveaux genres SurhomoHyperhomo, etc. qui résulteront des évolutions prévisibles de notre espèce actuelle? Il apparaît ainsi qu’on peut considérer une classe de référence réduite en procédant par restriction, ou appréhender une classe plus grande en faisant le choix d’une classe de référence par extension. On peut donc opérer pour le choix de la classe de référence en appliquant soit un principe de restriction, soit un principe d’extension. Et selon que l’on applique l’un ou l’autre principe, différents niveaux de choix sont à chaque fois possibles. Mais il apparaît qu’on ne dispose pas de critère objectif qui permette de légitimer le choix de telle ou telle classe de référence. Et même notre sous-espèce actuelle Homo sapiens sapiens ne peut être considérée comme un choix naturel et adéquat pour la classe de référence. Car n’est-il pas permis de penser que notre concept paradigmatique d’humain est appelé à subir des évolutions? Et d’autre part, le fait d’exclure des sous-espèces antérieures telles qu’Homo sapiens neandertalensis, ainsi que les futures évolutions de notre espèce, ne relève-t-il pas d’une démarche anthropocentrique? Dès lors que l’on ne dispose pas d’un critère de choix objectif, on peut opter, arbitrairement, pour l’une ou l’autre des classes qui viennent d’être décrites. On peut par exemple identifier la classe de référence à l’espèceHomo sapiens, et conclure à un décalage bayesien. On a bien alors une augmentation de la probabilité a posteriori de l’extinction d’Homo sapiens. Mais ce décalage bayesien vaut aussi bien pour une classe de référence plus restreinte encore, telle que notre sous-espèceHomo sapiens sapiens. Là aussi, l’application de la formule de Bayes met en évidence une sensible augmentation de la probabilité a posteriori de la fin prochaine d’Homo sapiens sapiens. Cependant, de manière identique, le décalage bayesien s’applique aussi à une classe de référence plus réduite encore qui est celle des représentants d’Homo sapiens sapiensn’ayant pas connu l’ordinateur. Une telle classe de référence est certainement vouée à une extinction prochaine. Toutefois, il ne s’agit pas là d’une conclusion de nature à nous effrayer, car les potentialités évolutives de notre espèce sont telles que la succession des nouvelles espèces à celles qui les ont précédées, constitue une des caractéristiques de notre mode d’évolution. On le voit, cette solution conduit ici à accepter la conclusion (le décalage bayesien) de Carter et Leslie pour une classe de référence donnée, tout en la plaçant sur un pied d’égalité avec des conclusions de même nature relatives à d’autres classes de référence, tout à fait inoffensives. La prise en compte de différents niveaux de restriction, rendue légitime par l’absence d’un critère objectif de choix, conduit finalement à l’innocuité de l’argument. Ainsi, il apparaît que l’argument basé sur la classe de référence et son choix arbitraire par restriction ou par extension constitue une solution commune à HP et DA. HP et DA sont en définitive sous-tendus par un même problème inhérent à la définition de la classe Z de HP et de la classe de référence unique de DA. On a donc une solution de même nature pour les deux paradoxes. Il convient ici de conclure en présentant un élément qui tend à confirmer l’origine commune des deux problèmes. On observera tout d’abord que l’on n’est pas en mesure de mettre en évidence une version de DA correspondant véritablement à la version originale de HP. En effet, une classe de référence telle que celle des corbeaux n’est pas transposable dans DA. L’argument inhérent à DA est en effet basé sur l’usage du principe anthropique, et requiert évidemment une classe de référence composée d’êtres intelligents. Lorsque Leslie[19] envisage l’extension de la classe de référence, il précise expressément que la condition pour l’appartenance à la classe de référence est l’aptitude à produire un raisonnement anthropique. Il est en revanche possible de décrire une version de HP constituée à partir des éléments de DA. Si on prend X pour notre actuelle sous-espèce Homo sapiens sapiens, et Y pour ne seront vivants qu’avant 2150, on obtient la version suivante de HP: (H15) Tous les Homo sapiens sapiens ne seront vivants qu’avant l’an 2150 (H15‘) Tous ceux qui vivront après 2150 seront des non-Homo sapiens sapiens Dans ce contexte, un être humain vivant en 1997 constitue une instance confirmant (H15). Parallèlement, la découverte d’un Homo sapiens sapiens après 2150 conduit à infirmer (H15). Enfin, la découverte d’un non-Homo sapiens sapiens vivant après 2150 constitue une confirmation de (H15‘) et donc de (H15). Compte tenu de cette formulation particulière, il est clair qu’on n’observe actuellement que des instances confirmant (H15). En revanche, après 2150, on pourra avoir des instances infirmant (H15), ou des instances confirmant (H15‘). Il convient ici d’observer que (H15) ne permet pas véritablement de servir de support à une version de DA. En effet, la classe de référence s’identifie ici de manière précise à Homo sapiens sapiens, alors que dans la version originale de DA, la classe de référence est constituée par l’espèce humaine (human race). En conséquence, on n’a pas à proprement parler une identité entre les événements sous-tendus par (H15) et A, de sorte que (H15)-(H15‘) ne constitue pas une version conjointe[20] de DA et HP. Mais cette version de HP étant constituée à partir des éléments de DA, on doit être à même, à ce stade, de vérifier l’origine commune des deux problèmes, en montrant comment les arguments apportés en défense de DA par rapport à la classe de référence, peuvent également être utilisés en support de HP. On connaît la réponse apportée par Leslie à l’objection selon laquelle la classe de référence des humains pour DA est ambiguë, et au fait que la prise en considération des espèces ayant précédé ou issues des évolutions d’Homo sapiens sapiens, conduit à une classe de référence hétérogène, de nature composite. Elle est exposée dans la réponse faite à Eckhardt (1993): How far should the reference class extend? (…) One can place the boundary more or less where one pleases, provided that one adjusts one’s prior probability accordingly. Exclude, if you really want to, all future beings with intelligence quotients above five thousand, calling them demi-gods and not humans[21]. et développée dans The End of the World[22]: The moral could seem to be that one’s reference class might be made more or less what one liked. (…) What if we wanted to count our much-modified descendants, perhaps with three arms or with godlike intelligence, as ‘genuinely human’? There would be nothing wrong in this. Yet if we were instead interested in the future only of two-armed humans, or of humans with intelligence much like that of humans today, then there would be nothing wrong in refusing to count any others[23]. Pour Leslie, on peut aller jusqu’à inclure dans la classe de référence, des descendants de l’humanité devenus très éloignés de notre espèce actuelle par le fait de l’évolution. Mais de manière libérale, Leslie accepte aussi qu’on limite la classe de référence aux seuls individus proches de notre humanité actuelle. On est ainsi libre de choisir la classe de référence que l’on souhaite, en opérant soit par extension, soit par restriction. Il suffira dans chaque cas d’ajuster en conséquence la probabilité initiale. Il apparaît ici que ce mode de réponse peut être transposé, littéralement, à une objection à HP de même nature, fondée sur la classe de référence de (H15)-(H15‘). On peut fixer – pourrait ainsi dire un défenseur de HP – la classe Z comme on le souhaite, et assigner à “tous ceux” le contenu désiré. On peut par exemple limiter Z à l’espèce Homo sapiens, ou bien l’assimiler à l’ensemble du genre Homo, incluant alors les évolutions de notre espèce telles que Homo spatialis, Homo computeris, etc. Ce qui importe – pourrait poursuivre ce défenseur – est de déterminer au préalable la classe de référence, et de s’en tenir à cette définition lorsque les différentes instances sont ensuite rencontrées. Ainsi, il s’avère que les arguments avancés en support de la classe de référence de DA peuvent être transposés pour la défense de HP. Ceci constitue un élément supplémentaire, allant dans le sens de l’origine commune des deux problèmes, liée à la définition d’une classe de référence. DA et HP appellent par conséquent le même type de réponse. Ainsi, l’urne de Carter et Leslie se déverse dans celle de Hempel[24].


Références

ECKHARDT, W. 1993. “Probability Theory and the Doomsday Argument.” Mind, 102 (1993): 483-8
FRANCESCHI, P. “Une Solution pour l’Argument de l’Apocalypse.” Canadian Journal of Philosophy (à paraître)
GOODMAN, N. 1955. Fact, Fiction and Forecast. Cambridge: Harvard University Press.
HEMPEL, C. 1945. “Studies in the logic of confirmation.” Mind, 54 (1945): 1-26 et 97-121
LESLIE, J. 1992. “Time and the Anthropic Principle.” Mind, 101 (1992): 521-40
—. 1993. “Doom and probabilities.” Mind, 102 (1993): 489-91
—. 1996. The End of the World: the science and ethics of human extinction. London and New York: Routledge.
PAPINEAU, D. 1995. “Methodology: the Elements of the Philosophy of Science.” In Philosophy A Guide Through the Subject, ed. A.C. Grayling. Oxford: Oxford University Press.
SAINSBURY, M. 1988. Paradoxes. New York: Cambridge University Press.
THIBAULT, J-C. 1983. Les oiseaux de Corse. Paris: De Gerfau.

[1] On sait qu’une lumière monochromatique, de longueur d’onde unique, ne se rencontre pratiquement qu’en laboratoire. Mais les couleurs naturelles peuvent être modélisées en termes de soustraction de lumières de certaines longueurs d’onde, à partir de la lumière blanche du Soleil. [2] Tout objet ~X~Y dans la classe Z ainsi extensivement définie. [3] L’effectif total des goélands d’Audouin est évalué à environ 3000 couples (cf. Thibault 1983, 132). [4] Ceci permet incidemment de vérifier que HP ne trouve pas son origine dans une disproportion de la classe des X par rapport à celle des non-X. Que les instances de la classe des X soient en nombre supérieur à celles des non-X n’empêche pas l’émergence d’une version de HP. [5] A proprement parler, il ne s’agit donc pas de versions de HP, puisqu’elles sont non paradoxales. Mais les propositions concernées possèdent la structure logique de (H) et (H’). [6] Les tétraèdres rouges éventuellement trouvés dans l’urne sont considérés comme des objets non significatifs. [7] Avec la notation: npq (boules rouges – boules vertes – tétraèdres verts). [8] Cf. § II. [9] Cette version particulière de HP est choisie ici parce qu’elle est basée sur une classe X correspondant à la sous-espèce accipiter gentilis arrigonii. A l’inverse, la version originale de HP est fondée sur l’espèce corvus corax. Le choix d’une sous-espèce pour la classe des X permet simplement ici un niveau supplémentaire d’intégration. [10] Les autours des palombes cyrno-sardes (accipiter gentilis arrigonii) constituent une sous-espèce de l’autour des palombes, spécifique à la Corse et à la Sardaigne. Cette sous-espèce endémique se distingue de la forme nominale de l’autour des palombes par les caractéristiques suivantes (cf. Thibault 1983): la coloration de la tête est noirâtre au lieu de brun noirâtre; le dos est moins brun; le dessous est plus foncé. [11] Les ornithologues distinguent encore la classe des accipitriformes, correspondant à l’ensemble des accipitridés, auxquels s’ajoutent les pandlionidés, telles que pandlion haliaetus (balbuzard pêcheur), etc. [12] L’embranchement des chordés comprend l’ensemble des vertébrés et quelques invertébrés qui présentent la propriété de posséder une chorde dorsale, au moins à une période donnée de leur vie. [13] Il est possible de considérer, si on le souhaite, de manière alternative une autre taxinomie que notre actuelle taxinomie scientifique. Cela n’entache pas le point de vue qui est exposé, puisque les conclusions sont identiques, dès lors que les principes de la classification sont respectés. [14] Il est évidemment possible de prendre en considération des taxinomies plus fines et comprenant des subdivisions supplémentaires à partir des différentes sous-espèces. De manière évidente, cela n’affecte pas le présent raisonnement. [15] Cf. § III. [16] Comme on l’a vu, le raisonnement bayesien n’a pas sa place lorsqu’on considère une classe Z incluant les ensembles infinis tels que les entiers naturels, les réels, etc. [17] Le critère de Nicod est ainsi défini (Hempel 1945, 11), pour S1 = (H) et S2 = (H’): “(…) let abcd be four objects such that a is a raven and black, b is a raven but not black, c not a raven but black and d neither a raven nor black. Then, according to Nicod’s criterion, a would confirm S1, but be neutral with respect to S2b would disconfirm both S1 and S2c would be neutral with respect to both S1 and S2, and d would confirm S1, but be neutral with respect to S2.” [18] Leslie utilise les termes de human race. [19] “How much widening of the reference class is appropriate when we look towards the future? There are strong grounds for widening it to include our evolutionarily much-altered descendants, three-armed or otherwise, as ‘humans’ for doomsday argument purposes – granted, that’s to say, that their intelligence would remain well above the chimpanzee level.” (1996, 262) [20] C’est-à-dire comportant simultanément les deux problèmes. [21] Cf. Leslie (1993, 491). [22] Ce point de vue est détaillé par Leslie, dans la partie intitulée “Just who should count as being human?” (1996, 256-63). [23] Cf. Leslie (1996, 260). [24] Je remercie deux experts anonymes du Canadian Journal of Philosophy pour leurs commentaires, concernant une version précédente de cet article.

Une solution pour le paradoxe de Goodman

Une Solution pour le Paradoxe de Goodman

Paul FRANCESCHI

Université de Corse

publié dans Dialogue, winter 2001, vol. 40, pp. 99-123

ABSTRACT: In the classical version of Goodman’s paradox, the universe where the problem takes place is ambiguous. The conditions of induction being accurately described, I define then a framework of n-universes, allowing the distinction, among the criteria of a given n-universe, between constants and variables. Within this framework, I distinguish between two versions of the problem, respectively taking place: (i) in an n-universe the variables of which are colour and time; (ii) in an n-universe the variables of which are colour, time and space. Finally, I show that each of these versions admits a specific resolution.

1. Le problème

Le paradoxe de Goodman (Goodman’s Paradox, soit GP dans ce qui suit) a été énoncé par Nelson Goodman (1946)[1]. Goodman expose son paradoxe de la manière suivante[2]. Soit une urne contenant 100 boules. Une boule est tirée chaque jour dans l’urne, durant 99 jours, jusqu’à aujourd’hui. A chaque fois, la boule extraite de l’urne est rouge. Intuitivement, on s’attend à ce que la 100ème boule tirée soit également rouge. Cette prédiction est basée sur la généralisation selon laquelle toutes les boules dans l’urne sont rouges. Cependant, si on considère la propriété S “tiré avant aujourd’hui et rouge ou tiré après aujourd’hui et non rouge”, on constate que cette propriété est également vérifiée par les 99 instances déjà observées. Mais la prédiction qui en résulte cette fois, basée sur la généralisation selon laquelle toutes les boules sont S, est que la 100ème boule sera non rouge. Et ceci est contraire à la conclusion précédente, qui est elle-même pourtant conforme à notre intuition[3]. Goodman exprime ainsi GP à l’aide d’une induction énumérative. Et on peut modéliser GP en termes de SR (straight rule). Si l’on prend (D) pour la définition du prédicat “rouge”, (I) pour l’énumération des instances, (H) pour la généralisation en résultant, et (P) pour la prédiction correspondante, on a alors :

(D) R = rouge (I) Rb1·Rb2·Rb3·…·Rb99 (H) Rb1·Rb2·Rb3·…·Rb99·Rb100

\ (P) Rb100 Et de même, avec le prédicat S :

(D*) S = rouge et tiré avant T ou non rouge et tiré après T (I*) Sb1·Sb2·Sb3·…·Sb99 (H*) Sb1·Sb2·Sb3·…·Sb99·Sb100 qui équivaut à : (H’*) Rb1·Rb2·Rb3·…·Rb99·~Rb100 \ (P*) Sb100 c’est-à-dire finalement :

\ (P’*) ~Rb100 Le paradoxe réside ici dans le fait que les deux généralisations (H) et (H*) conduisent respectivement à des prédictions (P) et (P’*) qui sont contradictoires. Intuitivement, l’application de SR à (H*) paraît erronée. Goodman donne aussi dans Fact, Fiction and Forecast[4] une version légèrement différente de son paradoxe, appliquée cette fois aux émeraudes[5]. Cette forme est très bien connue et est basée sur le prédicat “grue” = vert et observé avant T ou non vert et observé après T. Le prédicat S utilisé dans Goodman (1946) présente avec “grue”, une structure commune. Soient P et Q deux prédicats, cette structure correspond à la définition : (P et Q) ou (~P et ~Q). Dans ce qui suit, on désignera par grue un prédicat présentant cette structure particulière, sans distinguer selon que la forme spécifique utilisée est celle de Goodman (1946) ou (1954).

2. La dualité unification/différenciation

J’ai devant moi des instances. Dois-je les décrire en mettant l’accent sur leurs différences ? Ou bien dois-je les décrire en insistant sur leurs propriétés communes ? Je peux procéder d’une manière ou de l’autre. Mettre l’accent sur les différences entre les instances, c’est opérer par différenciation. A l’inverse, mettre en évidence leurs propriétés communes, c’est procéder par unification. Il convient de s’intéresser tout à tour à chacun de ces deux modes d’opérer. Soient les 100 boules composant l’urne de Goodman (1946). Considérons tout d’abord le cas où mon intention est de mettre l’accent sur les différences entre les instances. Là, une option est d’appréhender le moment particulier et unique, où chacune d’elles est extraite de l’urne. On considère alors les prédicats : rouge et tiré le jour 1rouge et tiré le jour 2, …, rouge et tiré le jour 99. On a ainsi 99 prédicats différents. Mais ceci interdit d’appliquer SR, qui nécessite un seul et même prédicat. Qu’est-ce donc que distinguer selon le moment où chaque boule est tirée ? C’est mettre l’accent sur une différence essentielle entre chacune des boules, fondée sur le critère du temps. On individualise ainsi chaque boule, et il en résulte autant de prédicats différents : tiré en T1, tiré en T2, …, tiré en T99. Ceci empêche ensuite tout mouvement inductif par application de SR. En effet, on ne dispose pas alors d’une propriété commune pour permettre l’induction et appliquer SR. Ici, la cause du problème réside dans le fait d’avoir réalisé une différenciation extrême. De manière alternative, je peux également procéder par différenciation en opérant une mesure extrêmement précise[6] de la longueur d’onde de la lumière définissant la couleur de chacune des boules. J’obtiendrai alors une mesure de longueur d’onde unique pour chacune des boules de l’urne. Ainsi, j’ai 100 boules devant moi, et je connais avec précision la longueur d’onde de la lumière de 99 d’entre elles. Les boules ont respectivement une longueur d’onde de 722,3551 nm, 722,3643 nm, 722,3342 nm, 722,3781 nm, etc. Je dispose dès lors de 99 prédicats distincts P3551, P3643, P3342, P3781, etc. Mais je suis alors dans l’impossibilité d’appliquer SR, qui exige un seul prédicat. Ici aussi, les propriétés communes font défaut pour pouvoir mettre en oeuvre le processus inductif. De la même manière que précédemment, il s’avère ici que j’ai réalisé une différenciation extrême. Que se passe-t-il maintenant si je procède exclusivement par unification ? Considérons le prédicat R correspondant à “rouge ou non rouge”. On tire 99 boules rouges avant le temps T. Elles sont toutes R. On prédit que la 100ème boule sera R après T, c’est-à-dire rouge ou non rouge. Mais cette forme d’induction n’apporte ici aucune information. La conclusion produite est vide d’information. On appellera induction vide ce type de situation. Dans ce cas, on observe que le processus d’unificationdes instances par la couleur a été réalisé de manière radicale, en annihilant à cet égard, toute démarche de différenciation. La cause du problème réside ainsi dans la mise en oeuvre d’un processus d’unification extrême. Si l’on se place du point de vue de la couleur, il apparaît que chacun des cas envisagés précédemment fait appel à une taxinomie différente des couleurs. Ainsi, il est fait usage successivement : – de notre taxinomie usuelle des couleurs basée sur 9 prédicats : violet, indigo, bleu, vert, jaune, orangé, rouge, blanc, noir – d’une taxinomie fondée sur une mise en relation des longueurs d’onde des couleurs avec l’ensemble des nombres réels (taxinomie réelle) – d’une taxinomie fondée sur un prédicat unique (taxinomie à taxon unique) : rouge ou non rouge Or il s’avère que chacun de ces trois cas peut être replacé dans une perspective plus générale. En effet, de multiples taxinomies des couleurs sont susceptibles d’être utilisées. Et celles-ci peuvent être ordonnées de la plus grossière (taxinomie à taxon unique) à la plus fine (taxinomie réelle), de la plus unifiée à la plus différenciée. On a notamment la hiérarchie suivante des taxinomies :

– TAX1 = {rouge ou non rouge} (taxinomie à taxon unique) – TAX2 = {rouge, non rouge} (taxinomie binaire) – … – TAX9 = {violet, indigo, bleu, vert, jaune, orangé, rouge, blanc, noir} (taxinomie basée sur les couleurs spectrales, ainsi que blanc et noir) – … – TAX16777216 = {(0, 0, 0), …, (255, 255, 255)} (taxinomie utilisée en informatique et distinguant 256 nuances de rouge, vert et bleu) – …

– TAXR = {370, …, 750} (taxinomie réelle basée sur la longueur d’onde de la lumière) Au sein de cette hiérarchie, il apparaît que l’usage de taxinomies extrêmes telles que celle basée sur un taxon unique, ou bien la taxinomie réelle, conduisent à des problèmes (respectivement unification extrême et différenciation extrême). Ainsi, les problèmes mentionnés plus haut lors de l’application d’un raisonnement inductif basé sur SR surviennent lorsque le choix dans la dualité unification/différenciation s’effectue de manière trop radicale. De tels problèmes concernent l’induction en général. Ceci incite à penser que l’on doit plutôt raisonner ainsi : je ne dois privilégier ni l’unification, ni la différenciation. Un prédicat tel que “rouge”, associé à notre taxinomie usuelle des couleurs[7] (TAX9), correspond précisément à un tel critère. Il correspond à un choix équilibré dans la dualité unification/différenciation. Ceci permet d’éviter les problèmes précédents. Cela n’empêche pas toutefois l’émergence de nouveaux problèmes, dès lors que l’on cherche à mettre en oeuvre un raisonnement inductif, dans certaines situations. Et un de ces problèmes est naturellement GP. Ainsi, il apparaît que l’enjeu du choix dans la dualité unification/différenciation est capital du point de vue de l’induction, car selon que je choisirai une manière ou bien l’autre, je pourrai ou non utiliser SR et produire des inférences inductives valables. Confronté à plusieurs instances, on peut mettre en oeuvre soit un processus de différenciation, soit un processus d’unification. Mais le choix effectué conditionne largement le succès ultérieur du raisonnement inductif réalisé sur ce fondement. Je dois décrire à la fois les propriétés communes et les différences. A partir de là, un raisonnement inductif correct peut prendre place. Mais d’ores et déjà, il apparaît que le rôle de la dualité unification/différenciation s’avère crucial pour l’induction. Plus précisément, il apparaît à ce stade qu’un choix correct dans la dualité unification/différenciation constitue une des conditions de l’induction.

3. Plusieurs problèmes concernant l’induction

Les problèmes qui viennent d’être évoqués constituent l’illustration de plusieurs difficultés inhérentes à la mise en oeuvre du processus inductif. Cependant, à la différence de GP, ils n’engendrent pas véritablement une contradiction. De ce point de vue, ils se distinguent de GP. Considérons maintenant la situation suivante. Je tire 99 boules respectivement aux temps T1, T2, …, T99. La 100ème boule sera tirée en T100. On constate que les 99 boules tirées sont rouges. Elles sont donc à la fois rouges et tirées avant T100. Soit R le prédicat “rouge” et T le prédicat “tiré avant T100“. On a alors :

(I) RTb1, RTb2, …, RTb99 (H) RTb1, RTb2, …, RTb99, RTb100

\ (P) RTb100 Par application directe de SR, il s’ensuit la prédiction : “la 100ème boule est rouge et tirée avant T100“. Mais ceci est en contradiction avec les données de l’expérience en vertu desquelles la 100ème boule est tirée en T100. Là aussi, le raisonnement inductif est basé sur une formalisation qui est celle de SR. Et de même que pour GP, SR conduit ici à une contradiction. Appelons Δ2 ce problème, où deux prédicats sont utilisés. Il apparaît que l’on peut construire aisément une forme de Δ2 basée sur un seul prédicat. Une manière de faire cela est de considérer le prédicat unique S défini comme “rouge et tiré avant T100” en lieu et place des prédicats R et T utilisés précédemment. Il s’ensuit alors la même contradiction. Plus encore, il apparaît que l’on peut mettre en évidence une autre version (Δ1) comportant un seul prédicat de ce problème, sans utiliser la propriété “rouge” qui se révèle ici inutile. Soit en effet T le prédicat tiré avant T100. On a alors :

(I) Tb1, Tb2, …, Tb99 (H) Tb1, Tb2, …, Tb99, Tb100

\ (P) Tb100 Ici aussi, la conclusion selon laquelle la 100ème boule est tirée avant T100 contredit les données de l’expérience selon lesquelles la 100ème boule est tirée en T100. Et on a alors un effet contradictoire, à l’instar de GP, sans que la structure de “grue” ait été mise en oeuvre. Compte tenu du fait que seul le critère du temps est utilisé pour construire ce problème, il sera désigné dans ce qui suit par Δ1-temps. Il apparaît ici que les problèmes tels que Δ1-temps et Δ2 conduisent de mκme que GP ΰ une contradiction. Tel n’est pas le cas pour les autres problèmes relatifs à l’induction évoqués précédemment[8], qui entraînent soit l’impossibilité de réaliser l’induction, soit une conclusion vide d’information. Cependant, il s’avère que la contradiction rencontrée dans Δ1-temps n’est pas de même nature que celle observée dans GP. En effet, dans GP, on a une contradiction entre les deux prédictions concurrentes (P) et (P*). En revanche, dans Δ1-temps, la contradiction apparaît entre d’une part les conditions de l’expérience (T ≥ 100) et d’autre part la prédiction résultant de la généralisation (T < 100). En tout état de cause, les problèmes qui viennent d’être rencontrés suggèrent que le formalisme de SR ne capture pas l’ensemble de nos intuitions relatives à l’induction. Il convient donc de s’attacher à définir avec précision les conditions de l’induction, et d’adapter en conséquence le formalisme utilisé. Mais avant toutefois de procéder à une telle analyse, il est nécessaire de préciser davantage les différents éléments du contexte de GP.

4. L’univers de référence

Considérons la loi (L1) selon laquelle “le diamant raye les autres solides”. A priori, (L1) s’impose à nous comme une vérité incontestable. Pourtant, il s’avère qu’à une température supérieure à 3550°C, le diamant fond. Aussi en dernière analyse, la loi (L1) se vérifie-t-elle à une température normale et en tout état de cause, lorsque la température est inférieure à 3550°C. Mais une telle loi ne s’applique pas au-delà de 3550°C. Ceci illustre combien l’énoncé des conditions dans lesquelles la loi (L1) est vérifiée est important, notamment en ce qui concerne les conditions de température. Ainsi, lorsqu’on énonce (L1), s’avère-t-il nécessaire de préciser les conditions de température dans lesquelles elle trouve à s’appliquer. Ceci revient à décrire le type d’univers dans lequel la loi est vérifiée. Soit également la proposition (P1) suivante : “le volume de l’univers visible est supérieur à 1000 fois celui du système solaire”. Une telle proposition s’impose à nous comme évidente. Mais là aussi, il apparaît que (P1) est vérifiée à l’époque moderne, mais qu’elle se révèle fausse dans les premiers instants de l’univers. En effet, lorsque l’âge de notre univers était de 10-6 seconde après le big bang, son volume était à peu près égal à celui de notre système solaire. Ici également, il apparaît donc nécessaire de spécifier, en même temps que la proposition (P1) les conditions de l’univers dans lequel elle s’applique. Une formulation non ambiguë de (P1) comporte donc une clause temporelle plus restrictive, telle que : “à notre époque, le volume de l’univers visible est supérieur à 1000 fois celui du système solaire”. Ainsi, d’une manière générale, on peut penser que lorsqu’on énonce une généralisation, il est nécessaire de préciser les conditions de l’univers dans lequel celle-ci s’applique. La description précise de l’univers de référence est fondamentale, car selon les conditions de l’univers dans lequel on se place, la loi énoncée peut se révéler vraie ou fausse. On observe dans notre univers la présence à la fois de constantes et de variables. On a ainsi des constantes, qui constituent les constantes fondamentales de l’univers : la vitesse de la lumière : c = 2,998 x108 m/s; la constante de Planck : h = 6,626 x 10-34 J.s; la charge de l’électron : e = 1,602 x 10-19 C; etc. On a d’autre part des variables. Parmi celles-ci, on peut citer notamment : la température, la pression, l’altitude, la localisation, le temps, la présence d’un rayonnement laser, la présence d’atomes de titanium, etc. On a souvent tendance, lorsqu’on énonce une généralisation, à ne pas prendre en compte les constantes et les variables qui sont celles de notre univers envisagé dans sa totalité. Tel est le cas par exemple lorsqu’on considère la situation de notre univers le 1er janvier de l’an 2000, à 0h. On se place alors explicitement dans ce qui constitue une tranche, une coupe de notre univers. En effet, le temps n’est pas considéré alors comme une variable, mais bien comme une constante. Soit également la généralisation : “les dinosaures avaient le sang chaud[9]“. Ici, on se place explicitement dans un sous-univers du notre où les paramètres du temps et de l’espace ont une portée restreinte. La variable temporelle se réduit à l’époque particulière de l’histoire de la Terre qui a connu l’apparition des dinosaures : le Trias et le Crétacé. Et de même, le paramètre spatial se limite à notre planète : la Terre. De manière identique, les conditions de température sont changeantes au sein de notre univers, selon que l’on se situe à un emplacement ou à un autre de ce dernier : à l’Equateur terrestre, à la surface de Pluton, au coeur d’Alpha du Centaure, etc. Mais si l’on s’intéresse exclusivement au ballon servant à l’expérimentation au sein du laboratoire de physique, où la température est maintenue invariablement à 12°C, on peut considérer alors la température comme une constante. Car lorsqu’on exprime de telles généralisations, on se place non pas dans notre univers envisagé dans sa totalité, mais seulement dans ce qui constitue véritablement une partie spécifique, une restriction de ce dernier. On peut alors assimiler l’univers de référence dans lequel on se place à un sous-univers du notre. Il est ainsi fréquent d’exprimer des généralisations qui ne valent que pour l’époque présente, ou pour nos conditions terrestres habituelles. Explicitement ou non, l’énoncé d’une loi comporte un univers de référence. Mais dans la plupart des cas, les variables et les constantes du sous-univers considéré sont distinctes de celles permettant de décrire notre univers envisagé dans sa totalité. Car les conditions sont extrêmement variées au sein de notre univers : les conditions sont très différentes selon que l’on se place à la 1ère seconde après le big bang, sur Terre à l’époque précambrienne, sur notre planète en l’an 2000, à l’intérieur de l’accélérateur de particules du CERN, au coeur de notre Soleil, à proximité d’une naine blanche, ou bien à l’intérieur d’un trou noir, etc. On peut penser également qu’il est intéressant de pouvoir modéliser des univers dont même les constantes sont différentes des constantes fondamentales de notre univers. On peut ainsi souhaiter étudier par exemple un univers où la masse de l’électron est égale à 9,325 x10-31 kg, ou bien un univers où la charge de l’électron est égale à 1,598 x 10-19 C. Et de fait, les univers-jouets, qui prennent en compte des constantes fondamentales différentes de celles de notre univers familier, sont étudiés par les astrophysiciens. Enfin, lorsqu’on décrit les conditions d’une expérience de pensée, on se place, de manière explicite ou non, dans les conditions qui s’apparentent à celles d’un sous-univers. Lorsqu’on considère par exemple 100 boules extraites d’une urne durant 100 jours consécutifs, on se place alors dans une restriction de notre univers où la variable temporelle est limitée à une période de 100 jours et, où la localisation spatiale est extrêmement réduite, correspondant par exemple à un volume à peu près égal à 5 dm3. Par contre, le nombre d’atomes de zirconium ou de titane éventuellement présents dans l’urne, l’existence éventuelle d’un rayonnement laser, la présence ou l’absence d’une source sonore de 10 db, etc. peuvent être omis et ignorés. Dans ce contexte, il n’est pas nécessaire de prendre en compte l’existence de telles variables. Dans cette situation, il suffit de mentionner les variables et les constantes effectivement utilisées dans l’expérience de pensée. Car on peut penser en effet que le nombre de variables dans notre univers est si grand qu’il est impossible de les énumérer toutes. Et dès lors, il ne paraît pas possible de caractériser notre univers en fonction de toutes ses variables, car on peut en fournir une énumération infinie. Il apparaît suffisant de décrire le sous-univers considéré, en mentionnant uniquement les constantes et les variables qui jouent un rôle effectif dans l’expérience. Ainsi, dans de telles situations, on décrira le sous-univers considéré en ne mentionnant que les critères effectifs nécessaires à la description de l’expérience. Ce qui précède incite à penser que d’une manière générale, afin de modéliser le contexte dans lequel prennent place des problèmes tels que GP, il est opportun de décrire un univers donné en termes de variables et de constantes. On est amené ainsi à définir un n-univers (n ≥ 0) comme un univers dont les critères comportent mconstantes, et n variables, où les m constantes et les n variables constituent les critères de l’univers considéré. Dans ce cadre particulier, on définit un 1-univers temporel (Ω1T) comme un univers comportant un seul critère-variable : le temps. De même, on définit un 1-univers coloré (Ω1C) comme un univers comportant un seul critère-variable : la couleur. On définira aussi un 2-univers coloré et temporel 2CT) comme un univers comportant deux critères-variables : le temps et la couleur. Etc. De même, un univers où tous les objets sont rouges, mais se caractérisent par une localisation différente sera modélisé par un 1-univers localisé (Ω1L) dont la couleur est un critère-constante (rouge). On notera incidemment que le modèle à n-univers permet notamment de modéliser plusieurs situations intéressantes. Ainsi, un univers temporel peut être considéré comme un n-univers dont l’une des variables est un critère temporel. De plus, un univers où on considère un moment unique T0, dépourvu du phénomène de succession du temps, peut être considéré comme un n-univers dont le temps ne constitue pas une des variables, mais où il existe une constante-temps. De même, un univers atemporel correspond à un n-univers dont aucune variable ne correspond à un critère temporel, et où il n’existe aucune constante-temps. Dans le contexte qui vient d’être défini, qu’est-ce maintenant qu’être rouge ? Ici, être “rouge” correspond à deux types de situations, selon le type de n-univers dans lequel on se place. Il peut s’agir en premier lieu, d’un n-univers dont la couleur est l’une des constantes. Dans ce type d’univers, la couleur des objets n’est pas susceptible de varier, et tous les objets y sont invariablement rouges. Le fait d’être “rouge” peut correspondre, en second lieu, à un n-univers dont la couleur constitue un des critères-variables. Là, un objet peut être rouge ou non rouge. Soit le cas d’un Ω1C. Dans un tel univers, un objet est rouge ou non rouge dans l’absolu. Aucun changement de couleur n’y est possible, car aucun autre critère-variable n’existe, duquel puisse dépendre une telle variation. Et dans un Ω2CT, être rouge, c’est être rouge au temps T. Au sein d’un tel univers, être rouge, c’est être rouge relativement au temps T. De même, dans un 3-univers coloré, temporel et localisé (Ω3CTL), être rouge, c’est être rouge au temps T et au lieu L. Etc. Dans de tels univers, être rouge, c’est être rouge relativement aux autres critères-variables. Et il en va de même pour les n-univers qui modélisent un univers tel que le notre. Ici se pose le problème du statut des instances d’un type d’objet donné. Qu’est-ce donc qu’être une instance, dans le présent cadre ? Ce problème a son importance, car les versions originales de GP sont basées sur des instancesde boules (1946) et d’émeraudes (1954). Si l’on prend en compte le cas de Goodman (1946), les instances considérées sont 100 boules différentes. Pourtant, si on considère une boule unique, tirée aux temps T1, T2, …, T100, on constate que la problématique de GP est toujours présente. Il suffit en effet de considérer une boule dont la couleur est susceptible de varier au cours du temps. On a tiré 99 fois la boule aux temps T1, T2, …, T99, et on constaté chaque fois que la boule était rouge. Il en résulte la prédiction selon laquelle la boule sera rouge en T100. Pourtant, cette prédiction s’avère contradictoire avec une prédiction concurrente basée sur les mêmes observations, et la projection du prédicat S “rouge et tiré avant T100 ou non rouge et tiré en T100[10]. Le présent cadre doit être à même d’appréhender la diversité de ces situations. Peut-on parler ainsi d’un 1-univers instancié et temporel, ou bien d’un 1-univers instancié et coloré ? Ici, on doit observer que le fait d’être instancié, pour un univers donné, correspond à un critère-variable supplémentaire. Car sinon, qu’est-ce qui permet de différencier les instances entre elles ? Si aucun critère ne les distingue, il s’agit alors d’une seule et même chose. Et si elles sont distinctes, c’est qu’un critère permet de les différencier. Ainsi, un 1-univers instancié et temporel est en fait un 2-univers, dont le 2ème critère, qui permet de distinguer les instances entre elles, n’est en fait pas mentionné ni explicité. En rendant explicite ce second critère-variable, il est donc clair que l’on se situe dans un 2-univers. De même, un 1-univers instancié et coloré est en réalité un 2-univers dont l’un des critères est la couleur et le second critère existe mais n’est pas précisé. Un autre aspect qui mérite d’être souligné ici, est la question de la réduction d’un n-univers donné à un autre. N’est il pas possible en effet, de réduire logiquement un n-univers à un système de critères différent ? Intéressons-nous par exemple à un Ω3CTL. Pour caractériser l’univers correspondant, on a 3 critères-variables : couleur, temps, localisation. Il apparaît que l’on peut réduire ce 3-univers à un 2-univers. Cela peut s’effectuer en réduisant deux des critères du 3-univers à un seul. En particulier, on réduira les critères de couleur et de temps à un critère unique de tcouleur* (shmolor[11]). Et on ne conservera que deux taxons de tcouleur* : G et ~G. Soient donc un critère de couleur comportant deux taxons (rouge, non rouge) et un critère de temps comportant deux taxons (avant T, après T). Si l’on associe les taxons de couleur et de temps, on obtient quatre nouveaux prédicats : rouge avant T, rouge après T, non rouge avant T, non rouge après T, que l’on dénotera respectivement RT, R~T, ~RT et ~R~T. Plusieurs de ces prédicats sont compatibles entre eux (RT et R~T, RT et ~R~T, ~RT et R~T, ~RT et ~R~T) alors que d’autres sont incompatibles (RT et ~RT, R~T et ~R~T). A ce stade, on a plusieurs manières (16)[12] de grouper les prédicats compatibles, permettant d’obtenir deux nouveaux prédicats G et ~G de tcouleur* :

0123456789101112131415
RT Ù R~TXXXXXXXX
RT Ù ~R~TXXXXXXXX
~RT Ù R~TXXXXXXXX
~RT Ù~R~TXXXXXXXX

Dans chacun de ces cas, il en résulte bien un nouveau critère unique de tcouleur* (Z), se substituant aux deux critères précédents de couleur et de temps. On dénotera Zi (0 ≤ i ≤ 15) les taxons de tcouleur* ainsi obtenus. S’il est clair que Z15 conduit à l’induction vide, on observera que plusieurs cas correspondant à la situation où les instances sont RT conduisent à la problématique GP. On notera ainsi que Z2, c’est-à-dire grue2 (en assimilant les Zi à gruei et les Z15-i à bleeni) est basé sur la définition : grue2 = rouge avant T et non rouge après T. Il s’agit là d’une interprétation conjonctive de la définition de “grue”. De même, grue7 correspond à une définition de “grue” basée sur un ou exclusif. Enfin, grue12 est basé sur la définition classique : grue12 = rouge avant T ou non rouge après T, où la disjonction s’interprète comme un ou inclusif. De la même manière, il s’avère également qu’un Ω2CT peut se réduire à un 1-univers tcoloré* (Ω1Z). Et de façon plus générale, un n-univers est ainsi réductible à un (n-1)-univers (pour n > 1). Ainsi, si l’on considère un univers donné, plusieurs caractérisations en termes de n-univers peuvent être valablement utilisées. On peut notamment appréhender un même univers comme un Ω3CTL, ou bien comme un Ω2ZL. De la même manière, on peut se représenter un Ω2CT comme un Ω1Z. A ce stade, aucune de ces vues n’apparaît fondamentalement meilleure que l’autre. Mais chacune de ces deux caractérisations constituent des façons alternatives de décrire une même réalité. Ceci montre finalement qu’un n-univers constitue en fait une caractérisation abstraite d’un univers réel ou imaginaire. Un n-univers constitue ainsi un système de critères, comportant des constantes et des variables. Et pour caractériser un même univers réel ou imaginaire donné, on peut recourir valablement à plusieurs n-univers. Chacun d’entre eux apparaît finalement comme une caractérisation distincte de l’univers considéré, faisant simplement appel à un jeu de primitives différent.

5. Conditions de l’induction

Le fait que le formalisme de SR entraîne l’effet de GP suggère que l’intuition qui préside à notre notion d’induction n’est pas entièrement capturée par SR. Il est ainsi permis de penser que si l’approche formelle est nécessaire et utile pour servir de support à l’induction, elle ne constitue pas toutefois une démarche suffisante. Car il paraît également essentiel de capturer l’intuition qui préside à notre raisonnement inductif. Aussi s’avère-t-il nécessaire de compléter l’approche formelle de l’induction par une approche sémantique. Goodman lui-même fait mention d’une définition de l’induction[13]. Il définit l’induction comme la projection de caractéristiques du passé dans le futur, ou d’une manière plus générale, comme la projection de caractéristiques correspondant à un aspect donné d’un objet à travers un autre aspect. Cette définition correspond à notre intuition de l’induction. On peut penser toutefois qu’il convient de la compléter en prenant en compte les observations précédentes[14]relatives à la dualité différenciation/unification. En ce sens, on a pu observer que l’induction consiste en une inférence à partir d’instances présentant à la fois des propriétés communes, et des différences. Soient les instances-source (instances-S) les instances sur lesquelles portent (I) ou (I*) et l’instance-destination (instance-D) celle qui fait l’objet de (P) ou (P*). Les propriétés communes concernent les instances-S et les propriétés différenciées s’établissent entre les instances-S et l’instance-D. Il en résulte la définition suivante : l’induction consiste précisément dans le fait que l’instance-D[15] possède également la propriété commune aux instances-S, alors que l’on fait varier le(s) critère(s) sur le(s)quel(s) est (sont) basé(es) les différences entres les instances-S et l’instance-D. Le raisonnement inductif est ainsi fondé sur le caractère constant d’une propriété, alors que telle autre propriété est variable. De cette définition de l’induction découlent directement plusieurs conditions de l’induction. Il convient de les examiner tour à tour. Les deux premières conditions sont ainsi les suivantes :

(C1) les instances-S doivent présenter des propriétés communes

(C2) les instances-S et l’instance-D doivent présenter des propriétés distinctives Ceci a pour conséquence qu’on ne peut appliquer l’induction dans deux circonstances particulières : d’une part (i) lorsque les instances ne laissent apparaître aucune propriété commune. On appellera un tel cas une différenciation totale des instances. Les problèmes correspondant à cette circonstance particulière ont été évoqués plus haut[16]. Et d’autre part (ii) lorsque les instances ne présentent aucune propriété distinctive. On appellera une telle situation unification totale. Les problèmes rencontrés dans ce type de situation ont également été mentionnés précédemment[17]. On doit noter ici qu’il ne s’agit pas là de propriétés intrinsèques des instances, mais bien de l’analyse qui est effectuée par celui qui s’apprête à raisonner par induction. Compte tenu de la définition de l’induction qui a été donnée, une troisième condition peut être ainsi énoncée :

(C3) un critère-variable est nécessaire pour les propriétés communes des instances-S et un autre critère-variable pour les propriétés distinctives Ceci se rapporte à la structure de l’univers de référence considéré. En conséquence, deux critères-variables sont au minimum nécessaires, dans la structure de l’univers de référence correspondant. On appellera cela la condition minimale de l’induction. Par conséquent, un 2-univers est au minimum nécessaire pour que les conditions de l’induction soient satisfaites. Ainsi, un Ω2CT conviendra. De même, un 2-univers temporel et localisé (Ω2TL) satisfera également les conditions qui viennent d’être définies, etc[18]. On peut noter qu’une autre façon d’énoncer cette condition est la suivante : le critère-variable pour les propriétés communes et le critère-variable pour les propriétés différenciées doivent être distincts. On ne doit pas avoir confusion entre les deux. On peut appeler cela la condition de séparation des propriétés communes et des propriétés distinctives. Un tel principe apparaît comme une conséquence de la condition minimale pour l’induction : on doit avoir deux critères pour réaliser l’induction, et ces critères doivent être différents. Si l’on choisit un même critère pour les propriétés communes et les propriétés différenciées, on se ramène de fait à un seul critère et au contexte d’un 1-univers, lui-même insuffisant pour réaliser l’induction. Enfin, une quatrième condition de l’induction résulte de la définition précédente :

(C4) on doit projeter les propriétés communes des instances-S (et non les propriétés distinctives) Les conditions de l’induction qui viennent d’être énoncées permettent désormais de traiter les problèmes liés à l’utilisation de SR évoqués plus haut[19]. Il s’ensuit en effet que les projections[20] suivantes sont correctes : C°T dans un Ω2CT, C°L dans un Ω2CL, Z°L dans un Ω2ZL, etc. A l’inverse, les projections suivantes sont incorrectes : T°T dans un Ω1T, Z°Z dans un Ω1Z. En particulier, on notera ici que la projection T°T dans le Ω1T est celle de Δ1-temps. Δ1-temps prend en effet place dans un Ω1T, alors que l’induction exige à la fois des propriétés communes et des propriétés distinctives. Ainsi, un 2-univers est au minimum nécessaire. D’habitude, le critère du temps est utilisé pour la différenciation. Mais ici, il est utilisé pour l’unification (“tiré avant T”). Cela peut se faire, mais à condition qu’on utilise un critère distinct pour les propriétés différenciées. Cependant, alors qu’il en résulte ici des propriétés communes, on perd les propriétés différenciées. Il manque donc un second critère – correspondant aux propriétés différenciées – à l’univers considéré, pour réaliser valablement l’induction. Ainsi Δ1-temps trouve-t-il son origine dans une violation de la condition minimale de l’induction. On peut formuler cette solution de manière équivalente, par rapport à la condition de séparation. En effet, dans Δ1-temps, un mκme critθre temporel (tiré avant T/tiré après T) est utilisé pour les propriétés communes et pour les propriétés différenciées, alors que deux critères distincts sont nécessaires. Il s’agit ainsi d’une violation manifeste de la condition de séparation. Enfin, les conditions de l’induction définies plus haut conduisent à adapter le formalisme utilisé pour décrire GP. Il s’avère en effet nécessaire de distinguer entre la propriété commune et la(les) propriété(s) distinctive(s). On utilisera donc le formalisme suivant en lieu et place de celui utilisé plus haut :

(I) RT1·RT2·RT3·…·RT99

(H) RT1·RT2·RT3·…·RT99·RT100 où R désigne la propriété commune et les Ti une propriété distinctive. Il est à noter qu’ici, il peut s’agir au choix d’un objet unique, ou bien d’instances que distingue un critère donné (qui n’entre pas en jeu dans le processus inductif) selon le n-univers dans lequel on se place. Ainsi, on utilisera dans le cas d’une instance unique α, dont la couleur est susceptible de varier selon le temps :

(I) RT1α·RT2α·RT3α·…·RT99α ou dans le cas oω plusieurs instances α1, α2, …, α99, α100 existent[21] :

(I) RT1α1·RT2α2·RT3α3·…·RT99α99

6. L’origine du paradoxe

Compte tenu des conditions de l’induction et du cadre des n-univers qui viennent d’être définis, on est désormais en mesure de s’attacher à déterminer l’origine de GP. Il convient pour cela tout d’abord de décrire avec précision les conditions de l’univers de référence dans lequel GP prend place. En effet, dans la version originale de GP, le choix de l’univers de référence n’est pas défini avec précision. Or on peut penser qu’il est essentiel, afin d’éviter toute ambiguïté, que ce dernier soit décrit précisément. L’univers de référence dans lequel se place Goodman (1946) n’est pas défini explicitement, mais plusieurs éléments de l’énoncé permettent d’en préciser la nature. Goodman fait ainsi mention des couleurs “rouge” et “non rouge”. Aussi la couleur constitue-t-elle un des critères-variables de l’univers de référence. De plus, Goodman distingue les boules qui sont tirées aux temps T1, T2, T3, …, T100. Ainsi, le temps est également un critère-variable de l’univers considéré. Par conséquent, on peut décrire l’univers minimal dans lequel se place Goodman (1946) comme un Ω2CT. De même, dans Goodman (1954), les critères-variables de couleur (vert/non vert) et de temps (tiré avant T/tiré après T) sont expressément mentionnés. Dans les deux cas, on se place donc, implicitement dans le cadre minimal d’un Ω2CT. Goodman fait par ailleurs mention d’instances de boules ou d’émeraudes. Faut-il à ce stade recourir à un critère-variable supplémentaire permettant de distinguer les instances entre elles ? Il apparaît que non. D’une part en effet, comme on l’a vu précédemment[22], il s’avère que l’on a bien une version de GP en considérant simplement un Ω2CT et un objet unique dont la couleur est susceptible de varier au cours du temps. D’autre part, il apparaît que si le critère qui sert à distinguer les instances n’est pas utilisé dans le processus inductif, il ne sert alors ni en tant que critère commun, ni en tant que critère différencié. Il s’ensuit alors que l’on peut se dispenser de recourir à ce 3ème critère supplémentaire. Ainsi, il s’avère que le fait de prendre en compte une instance unique ou bien plusieurs instances, n’est pas essentiel dans la formulation de GP. Dans ce qui suit, on pourra donc considérer que l’énoncé s’applique, indifféremment, à un objet unique ou à plusieurs instances que distingue un critère qui n’est pas utilisé dans le processus inductif. Désormais, nous sommes en mesure de replacer GP dans le cadre des n-univers. Compte tenu du fait que le contexte de GP est celui d’un Ω2CT minimal, on envisagera successivement deux situations : celle d’un Ω2CT, puis celle d’un Ω3CTα (oω α dιsigne un 3θme critère). 6.1 “Grue” dans le 2-univers coloré et temporel Envisageons tout d’abord l’hypothèse d’un Ω2CT. Dans un tel univers, être “rouge”, c’est être rouge au temps T. On dispose alors d’un critère de couleur pour les propriétés communes, et d’un critère de temps pour les propriétés différenciées. Dès lors, il apparaît tout à fait légitime de projeter la propriété commune de couleur (“rouge”), à travers le temps différencié. Une telle projection s’avère conforme aux conditions de l’induction énoncées plus haut. Qu’en est-il maintenant de la projection de “grue” ? On a observé précédemment[23] que le Ω2CT était réductible à un Ω1Z. Ici, le fait d’utiliser “grue” (et “bleen”) en tant que primitives, est caractéristique du fait que le système de critères utilisé est celui d’un Ω1Z. Qu’en est-il alors lorsqu’on projette “grue”, dans le Ω1Z ? Dans un tel univers de référence, l’unique critère-variable est la tcouleur*. Un objet y est “grue” ou “bleen” dans l’absolu. Dès lors, si l’on dispose bien d’un critère commun (la tcouleur*), il apparaît que le critère différencié fait défaut, pour mettre en oeuvre valablement l’induction. Et la situation dans laquelle on se trouve est celle d’une indifférenciation extrême. Ainsi, une telle projection s’effectue en violation de la condition minimale de l’induction. Par conséquent, il s’avère que GP ne peut prendre place dans le Ω2CT, et se trouve bloqué au stade de la projection de “grue”. Mais ces remarques préliminaires sont-elles suffisantes pour fournir, dans le contexte d’un Ω2CT, une solution satisfaisante à GP ? On peut penser que non, car le paradoxe s’y présente également sous une autre forme, qui est celle de la projection de la tcouleur* à travers le temps. On peut formaliser ainsi cette projection Z°T :

(I*) GT1·GT2·GT3·…·GT99 (H*) GT1·GT2·GT3·…·GT99·GT100 qui équivaut à : (H’*) RT1·RT2·RT3·…·RT99·~RT100 (P*) GT100 qui équivaut à :

(P’*) ~RT100 où il est manifeste que les éléments de la problématique GP sont encore présents. Fondamentalement dans cette version, il apparaît que les propriétés communes sont empruntées au système de critères du Ω1Z, alors que les propriétés différenciées proviennent du Ω2CT. Une première analyse révèle donc que la projection de “grue” dans ces conditions comporte un défaut qui consiste dans le choix d’un système de critères donné pour les propriétés communes (la tcouleur*) et d’un système de critères différent pour les propriétés différenciées (le temps). Car la sélection de la tcouleur* est caractéristique du choix d’un Ω1Z, alors que l’utilisation du temps est révélatrice du fait que l’on se place dans un Ω2CT. Mais on se doit de choisir l’un ou l’autre des systèmes de critères réductibles pour réaliser l’induction. Dans les hypothèses envisagées précédemment, le choix des critères pour les propriétés communes et différenciées s’effectuait dans un même système de critères. Mais ici, le choix des critères pour les propriétés communes et les propriétés différenciées s’effectue dans deux systèmes de critères (réductibles) différents. Ainsi, les critères commun et différencié choisis pour l’induction ne sont pas véritablement distincts. Et ceci apparaît comme une violation de la condition de séparation. Par conséquent, une des conditions de l’induction n’est pas respectée. Cependant, la projection Z°T possède un certain support intuitif, car elle est basée sur le fait que les notions de “grue avant T” et “grue après T” se révèlent, intuitivement, porteuses de sens. Faisons donc abstraction de la violation des conditions de l’induction qui vient d’être mentionnée, et considérons donc cette situation. Dans ce contexte, GP est toujours présent, puisqu’on observe une contradiction entre (P) et (P’*). C’est à cette contradiction qu’il convient désormais de s’intéresser. Soit l’étape d’équivalence entre (H*) et (H’*). On conçoit que “grue avant T” s’assimile ici à RT, car le fait que les instances-S sont rouges avant T résulte clairement des conditions de l’expérience. En revanche, il convient de s’intéresser à l’étape selon laquelle (P*) entraîne (P’*). Selon la définition classique[24] : “grue” = {RT Ù R~T, RT Ù ~R~T, ~RT Ù ~R~T}. Qu’est-ce donc qu’être “grue après T” ? Là, il apparaît qu’un objet “grue” peut être R~T (ceci correspond au cas RT Ù R~T) ou bien ~R~T (ceci correspond aux cas RT Ù ~R~T et ~RT Ù ~R~T). En conclusion, l’objet peut être soit R~T soit ~R~T. Ainsi, le fait de savoir qu’un objet est “grue après T” ne permet pas de conclure que cet objet est ~R~T, car ce dernier peut également être R~T. En conséquence, l’étape selon laquelle (P*) entraîne (P’*) se révèle finalement fausse. D’où il s’ensuit que la contradiction entre (P) et (P’*) n’a plus de raison d’être. On peut se persuader que cette analyse ne dépend pas du choix de la définition classique de “grue” (grue12) qui est effectué, en considérant d’autres définitions. Soit par exemple la définition basée sur grue9 : “grue” = {RT Ù~R~T, ~RT Ù ~R~T } et “bleen” = {RT Ù R~T, ~RT Ù R~T}. Mais dans cette version, on constate que l’on n’a pas l’émergence de GP, car les instances-S, qui sont RT, peuvent être à la fois “grue” et “bleen”. Et il en va de même si on considère une définition conjonctive (grue2) telle que “grue” = {RT Ù ~R~T}. Dans un tel cas en effet, les instances-S ne sont “grue” que si elles sont RT mais également ~R~T. Or ceci ne correspond pas aux conditions initiales de GP dans le Ω2CT où on ignore si les instances-S sont ~R~T. On pourrait penser également que le problème est lié à l’utilisation d’une taxinomie de tcouleur* basée sur deux taxons (G et ~G). Considérons donc une taxinomie de la tcouleur* basée sur 4 taxons : Z0 = RT Ù R~T, Z1 = RT Ù ~R~T, Z2 = ~RT Ù R~T, Z3 = ~RT Ù ~R~T. Mais dans cette hypothèse, il apparaît clairement que dès lors que les instances-S sont par exemple Z1, on se trouve replacé dans la situation précédente. Le fait de considérer “grue après T”, “grue avant T”, “bleen avant T”, “bleen après T” s’assimile à une tentative d’exprimer “grue” et “bleen” par rapport à nos propres critères, et en particulier celui du temps. Il s’agit là d’une forme d’anthropocentrisme, sous-tendue par l’idée d’exprimer le Ω1Z à l’aide des taxons du Ω2CT. Dès lors que l’on connaît le code définissant les relations entre deux n-univers réductibles – le Ω1Z et le Ω2CT – et que l’on possède des données partielles, on peut être tenté d’élucider complètement les prédicats du n-univers étranger. Sachant que les instances sont GT, G~T, ~GT, ~G~T, je peux déduire qu’elles sont respectivement {RT, ~RT}, {R~T, ~R~T}, {~RT}, {R~T}. Mais comme on l’a vu, du fait que les instances sont GT et RT, je ne peux pas déduire qu’elles seront ~R~T. Le raisonnement dans cette version de GP est basé sur l’idée apparemment inductive que ce qui est “grue avant T” est également “grue après T”. Mais dans le contexte qui est celui du Ω1Z, lorsqu’un objet est “grue”, il est “grue” dans l’absolu. Car aucun critère supplémentaire n’existe qui puisse faire varier sa tcouleur*. Ainsi, lorsqu’un objet est GT, il est nécessairement G~T. Et de l’information selon laquelle un objet est GT, on peut donc conclure, par déduction, qu’il est également G~T. De ce qui précède, il s’ensuit que la version de GP liée à Z°T présente les caractères apparents de l’induction, mais il ne s’agit pas d’une forme authentique de ce type de raisonnement. Z°T constitue ainsi une forme déguisée de l’induction pour deux raisons principales: d’une part, il s’agit d’une projection à travers le critère différencié du temps, qui constitue le mode standard de notre pratique inductive. Et d’autre part, elle est basée sur le principe intuitif selon lequel tout ce qui est GT est également G~T. Mais comme on l’a vu, il s’agit en réalité là d’une forme déductive de raisonnement, dont la véritable nature se trouve masquée par un apparent mouvement inductif. Et ceci conduit à conclure que la forme de GP apparentée à Z°T s’analyse en fait véritablement comme une pseudo-induction. 6.2 “Grue” dans le 3-univers coloré, temporel et localisé Envisageons maintenant le cas d’un Ω3CTα. Ce type d’univers de rιfιrence correspond également à la définition d’un Ω2CT minimal, mais il comporte également un 3ème critère-variable[25]. Choisissons pour ce dernier un critère tel que la localisation[26]. Soit donc un Ω3CTL. Considérons tout d’abord (H) dans un tel 3-univers. Etre “rouge” dans le Ω3CTL, c’est être rouge au temps T et au lieu L. D’après les conditions de GP, la couleur correspond aux propriétés communes, et le temps aux propriétés différenciées. On a alors la projection C°TL suivante :

(I) RT1L1·RT2L2·RT3L3·…·RT99L99 (H) RT1L1·RT2L2·RT3L3·…·RT99L99·RT100L100

\ (P) RT100L100 où compte tenu des conditions de l’induction, il s’avère légitime de projeter la propriété commune (“rouge”) des instances-S, à travers le temps et le lieu différenciés, et de prédire que la 100ème boule sera rouge. Une telle projection apparaît tout à fait correcte, et s’avère en tous points conforme aux conditions de l’induction mentionnées plus haut. Qu’en est-il maintenant de (H*) dans le Ω3CTL ? On a pu observer que le Ω3CTL pouvait se réduire à un Ω2ZL. Dans ce dernier n-univers, les critères-variables sont la tcouleur* et la localisation. Le fait d’être “grue” y est relatif au lieu : être “grue”, c’est être “grue” au lieu L. Ce qui est alors projeté est la tcouleur*, c’est-à-dire le fait d’être “grue” ou “bleen”. On a donc un critère commun de tcouleur* et un critère différencié de localisation. Dès lors, si on considère que les instances-S sont “grue”, on peut fort bien projeter la propriété commune “grue” à travers un critère différencié de localisation. Soit donc la projection Z°L dans le Ω2ZL :

(I*) GL1·GL2·GL3·…·GL99 (H*) GL1·GL2·GL3·…·GL99·GL100

\ (P*) GL100 Une telle projection est conforme aux conditions mentionnées plus haut, et constitue par conséquent une forme valable de l’induction. Dans ce contexte, on peut projeter valablement un prédicat ayant une structure identique à celle de “grue”, dans le cas des émeraudes. Considérons la définition “grue” = vert avant T ou non vert après T, où T = 10 milliards d’années. On sait qu’à cette époque, notre Soleil sera éteint, et deviendra progressivement un naine blanche. Les conditions de notre atmosphère seront radicalement différentes de ce qu’elles sont actuellement. Et la température s’élèvera notamment dans des proportions considérables, pour atteindre 8000°. Dans ces conditions, la structure de nombreux minéraux se transformera radicalement. Il devrait normalement en être ainsi pour nos émeraudes actuelles, qui devraient voir leur couleur modifiée, à la suite de l’énorme élévation de température qui s’ensuivra. Ainsi, j’observe actuellement une émeraude: elle est “grue” (pour T = 10 milliards d’années). Si je projette cette propriété à travers un critère de lieu, j’en conclus légitimement que l’émeraude trouvée au coeur de la forêt amazonienne sera également “grue”, de même également que l’émeraude qui vient d’être extraite d’une mine d’Afrique du Sud. A ce stade, on pourrait s’interroger pour savoir si la projectibilité de “grue” n’est pas liée intrinsèquement au choix d’une définition de “grue” basée sur le ou inclusif (grue12) ? Cependant, on vérifie aisément en utilisant une définition alternative de “grue” que sa projection demeure valide[27]. On remarque qu’on a ici l’expression du fait que la taxinomie basée sur la tcouleur* est plus grossière que celle basée sur le temps et la couleur. En effet, la première ne comprend que 2 taxons (grue/bleen), alors que la seconde en comprend 4. En réduisant les critères de couleur et de temps à un critère unique de tcouleur*, on a remplacé 4 taxons (RT Ù R~T, RT Ù ~R~T, ~RT Ù R~T, ~RT Ù ~R~T) par 2. Ainsi, “grue” constitue de ce point de vue un prédicat plus grossier que “rouge”. L’univers qui est décrit n’a pas changé, mais les n-univers qui sont des systèmes de critères décrivant ces univers sont différents. Avec la tcouleur* ainsi définie, on dispose de moins de prédicats pour décrire une même réalité. Les prédicats “grue” et “bleen” sont pour nous peu informatifs, et le sont moins, en tout état de cause que nos prédicats “rouge”, “non rouge”, “avant T”, etc. Mais cela n’empêche pas toutefois “grue” et “bleen” d’être projectibles. Alors que la projection de “grue” se révèle valide dans le Ω2ZL, on remarquera cependant que l’on n’observe pas dans ce cas la contradiction entre (P) et (P’*). Car ici (I*) équivaut bien à :

(I’*) RT1L1·RT2L2·RT3L3·…·RT99 L99 puisque, sachant d’après les données initiales de GP que les instances-S sont RT, on remplace valablement les GLi par les RTiLi (i < 100). Mais il apparaît que dans cette hypothèse, (P*) n’entraîne pas :

(P’*) ~RT100L100 car on ne possède pas d’indication relative à la temporalité de la 100ème instance, du fait que seule la localisation constitue ici le critère différencié. En conséquence, on a bien dans le cas du Ω3CTL une version construite à partir des éléments de GP où la projection de “grue” s’effectue valablement, mais qui ne se révèle pas paradoxale.

7. Conclusion

Dans la solution à GP proposée par Goodman, un prédicat est projectible ou non projectible dans l’absolu. Et on a d’autre part une correspondance entre les prédicats implantés[28]/ non implantés et les prédicats projectibles / non projectibles. Goodman par ailleurs ne fournit pas de justification à cette assimilation. Dans la présente approche, on n’a pas une telle dichotomie, car un prédicat donné P se révèle projectible dans un n-univers donné, et non projectible dans un autre n-univers. Ainsi, P est projectible relativement à tel univers de référence. On a donc la distinction projectible non projectible relativement à tel n-univers. Et cette distinction est justifiée par les conditions de l’induction, et par le mécanisme fondamental de celle-ci par rapport à la dualité unification/différenciation. On a ainsi des n-univers où “vert” est projectible et d’autres ou il ne l’est pas. De même, “grue” se révèle ici projectible relativement à certains n-univers. Ni vert ni grue ne sont projectibles dans l’absolu, mais seulement relativement à tel univers donné. De même que d’autres prédicats, “grue” est projectible dans certains univers de référence, mais non projectible dans d’autres[29]. Ainsi, il s’avère qu’une des causes de GP réside dans le fait que dans GP, on s’attache classiquement à opérer une dichotomie entre les prédicats projectibles et les prédicats non projectibles. Les solutions classiquement proposées pour résoudre GP sont respectivement basées sur la distinction temporel / non temporel, local / non local, qualitatif / non qualitatif, implanté / non implanté, etc. et une mise en correspondance avec la distinction projectible / non projectible. On s’interroge ainsi sur le caractère projectible ou non, dans l’absolu, de tel prédicat P* présentant la structure de “grue”. Ceci résulte du fait que dans GP, on a une contradiction entre les deux prédictions concurrentes (P) et (P*). On en déduit classiquement qu’une des deux prédictions doit être rejetée, en même temps qu’une des deux généralisations (H) ou (H*) sur lesquelles ces prédictions sont respectivement basées. A l’inverse, dans la présente analyse, que l’on se place dans le cas de la projection authentique Z°L ou de la pseudo-projection Z°T, on n’a pas la contradiction entre (P) et (P’*). Dès lors, on ne se trouve plus contraint de rejeter soit (H) soit (H*). Et la distinction entre prédicats projectibles / non projectibles ne se révèle plus indispensable[30]. Comment s’effectue dans ce contexte le choix de nos n-univers usuels ? Des n-univers tels que le Ω2CT, le Ω3CTL, le Ω2ZL etc. conviennent pour réaliser l’induction. Mais nous tendons naturellement à privilégier ceux qui sont basés sur des critères structurés assez finement pour permettre un maximum de combinaisons de projections. Si l’on opère à partir des critères Z et L dans le Ω2ZL, on s’autorise un nombre de combinaisons restreint : Z°L et L°Z. A l’inverse, si l’on retient les critères C, T et L, on se place dans le Ω3CTL et on a la possibilité des projections C°TL, T°CL, L°CT, CT°L[31], CL°T, TL°C. On a ainsi un maximum de combinaisons. Ceci semble inciter à préférer le Ω3CTL au Ω2ZL. Bien sûr, le pragmatisme semble devoir jouer un rôle dans le choix optimal de nos critères. Mais il semble que ce ne soit qu’un des multiples facteurs qui interagissent pour permettre l’optimisation de nos critères pour effectuer les opérations primitives de regroupement et de différenciation, afin de pouvoir ensuite généraliser, classer, ordonner, faire des hypothèses ou prévoir[32]. Parmi ces facteurs, on peut notamment citer : le pragmatisme, la simplicité, la souplesse de mise en oeuvre, la polyvalence[33], l’économie de moyens, la puissance[34], mais aussi la nature de notre univers réel, la structure de nos organes de perception, l’état de nos connaissances scientifiques, etc[35]. Nos n-univers habituels sont optimisés par rapport à ces différents facteurs. Mais ceci laisse valablement la place au choix d’autres systèmes de critères, en fonction des variations de l’un ou l’autre de ces paramètres[36].

[1] Nelson Goodman, “A Query On Confirmation”, Journal of Philosophy, vol. 43 (1946), p. 383-385; repris dans Problems and Projects, Indianapolis, Bobbs-Merrill, 1972, p. 363-366. [2] Avec quelques adaptations mineures. [3] Cf. Goodman “A Query On Confirmation”, p. 383 : “Suppose we had drawn a marble from a certain bowl on each of the ninety-nine days up to and including VE day and each marble drawn was red. We would expect that the marble drawn on the following day would also be red. So far all is well. Our evidence may be expressed by the conjunction “Ra1·Ra2·…·Ra99” which well confirms the prediction Ra100.” But increase of credibility, projection, “confirmation” in any intuitive sense, does not occur in the case of every predicate under similar circumstances. Let “S” be the predicate “is drawn by VE day and is red, or is drawn later and is non-red.” The evidence of the same drawings above assumed may be expressed by the conjunction “Sa1·Sa2·…·Sa99“. By the theories of confirmation in question this well confirms the prediction “Sa100“; but actually we do not expect that the hundredth marble will be non-red. “Sa100” gains no whit of credibility from the evidence offered.” [4] Nelson Goodman, Fact, Fiction and Forecast, Cambridge, MA, Harvard University Press, 1954. [5] Ibid., p. 73-4 : “Suppose that all emeralds examined before a certain time t are green. At time t, then, our observations support the hypothesis that all emeralds are green; and this is in accord with our definition of confirmation. […] Now let me introduce another predicate less familiar than “green”. It is the predicate “grue” and it applies to all things examined before t just in case they are green but to other things just in case they are blue. Then at time t we have, for each evidence statement asserting that a given emerald is green, a parallel evidence statement asserting that that emerald is grue.” [6] Par exemple avec une précision de 10-4 nm. [7] Ou toute taxinomie qui en est proche. [8] Cf. §2. [9] Cette affirmation est controversée. [10] Une telle remarque s’applique également à l’énoncé de Goodman, Fact, Fiction and Forecast. [11] Ainsi que le mentionne J.S. Ullian, “More on ‘Grue’ and Grue”, Philosophical Review, vol. 70 (1961), p. 386-389, en p. 387. [12] Soit C(0, 4)+C(1, 4)+C(2, 4)+C(3, 4)+C(4, 4) = 24, où C(pq) désigne le nombre de combinaisons de qéléments pris p à la fois. [13] Cf. Goodman, “A Query On Confirmation”, p. 383 : “Induction might roughly be described as the projection of characteristics of the past into the future, or more generally of characteristics of one realm of objects into another.” [14] Cf. §2 ci-dessus. [15] On peut bien sûr prendre en considération, de manière alternative, plusieurs instances-D. [16] Cf. §2 ci-dessus. [17] Ibid.

[18] Pour l’application de cette condition, on doit tenir compte des remarques mentionnées plus haut concernant le problème du statut des instances. Ainsi, on doit en réalité assimiler un 1-univers instancié et temporel à un 2-univers dont l’un des critères est temporel, et le second critère n’est pas explicité. De même, un 1-univers instancié et coloré s’assimile en fait à un 2-univers dont l’un des critères est temporel, et le second critère n’est pas spécifié.

[19] Cf. §3 ci-dessus. [20] Avec les notations C (couleur), T (temps), L (localisation) et Z (tcouleur*). [21] Toutefois, dès lors que le fait qu’il existe une ou plusieurs instances n’est pas essentiel dans la formulation du problème considéré, on pourra évidemment s’abstenir d’en faire mention. [22] Cf. §4. [23] Ibid. [24] Il s’agit de celle basée sur le ou inclusif (grue12). [25] Une même solution s’applique, bien sûr, si l’on considère un nombre de critères-variables supérieur à 3. [26] Tout autre critère distinct de la couleur ou du temps, conviendrait également. [27] En particulier, il apparaît que la projection d’une définition conjonctive (grue2) nous est en fait familière. En effet, nous ne faisons pas autre chose lorsque nous projetons le prédicat “être vert avant maturité et rouge après maturité” applicable aux tomates, à travers un critère différencié de lieu : ceci est vrai des 99 instances-S observées en Corse et en Provence, et se projette valablement à une 100ème instance située en Sardaigne. On peut observer qu’un tel type de projection est notamment considéré comme non problématique par Jackson (Franck Jackson, “‘Grue'”, Journal of Philosophy, vol. 72 (1975), p. 113-131) : “There seems no case for regarding ‘grue’ as nonprojectible if it is defined this way. An emerald is grue1 just if it is green up to T and blue thereafter, and if we discovered that all emeralds so far examined had this property, then, other things being equal, we would probably accept that all emeralds, both examined and unexamined, have this property (…). Si on devait replacer un tel prédicat dans la présente analyse, on devrait alors considérer que la projection s’effectue par exemple à travers un critère différencié de localisation (p. 115). [28] C’est-à-dire “entrenched” (Goodman, Fact, Fiction and Forecast). [29] La conception développée dans J. Holland, K. Holyoak, R. Nisbett et P. Thagard (Induction, Cambridge, MA; Londres, MIT Press, 1986) me paraît constituer une variation de la solution de Goodman, orientée vers le traitement informatique des données et basée sur la distinction intégré / non intégré dans la hiérarchie par défaut. Mais la solution de Holland présente les mêmes inconvénients que celle de Goodman : quelle justification sinon anthropocentrique, possède-t-on pour cette distinction ? Cf. p. 235 : “Concepts such as “grue”, which are of no significance to the goals of the learner, will never be generated and hence will not form part of the default hierarchy. (…) Generalization, like other sorts of inference in a processing system, must proceed from the knowledge that the system already has”. La présente analyse se distingue aussi de celle présentée par Susan Haack (Evidence and Inquiry, Oxford; Cambridge, MA, Blackwell, 1993), car l’existence d’espèces naturelles (natural kinds) ne constitue pas ici une condition pour l’induction. Cf. p. 134 : “There is a connection between induction and natural kinds. […] the reality of kinds and laws is a necessary condition of successful inductions”. Dans le présent contexte, le fait que les conditions de l’induction (un critère commun, un critère différencié distinct, etc.) soient satisfaites convient pour réaliser l’induction.

[30] Une remarque similaire est formulée par Franck Jackson en conclusion de son article (“‘Grue'”, p. 131) : “[…] the SR can be specified without invoking a partition of predicates, properties or hypotheses into the projectible and the nonprojectible”. Pour Jackson, tous les prédicats non contradictoires sont projectibles : “[…] all(consistent) predicates are projectible.” (p. 114). Une telle conclusion apparaît toutefois plus forte que celle qui résulte de la présente analyse. Car pour Jackson, tous les prédicats sont donc projectibles dans l’absolu. Mais dans le présent contexte, on n’a pas de prédicats projectibles ou non projectibles dans l’absolu. Ce n’est que relativement à un n-univers donné, qu’un prédicat P se révèle projectible ou non projectible.

De manière plus générale, la présente analyse se distingue essentiellement de celle de Jackson en ce sens que la solution proposée à GP ne repose pas sur la condition contrefactuelle (conterfactual condition). Cette dernière en effet apparaît trop liée à l’utilisation de certains prédicats (examinedsampled, etc.). En revanche, dans le présent contexte, on considère le problème d’un point de vue général, indépendamment de la nature particulière des prédicats composant la définition de grue. [31] Une telle projection correspond par exemple à la généralisation selon laquelle “Les statues-menhirs anthropomorphes sont de la couleur du granit et de l’Age du Bronze”. [32] Comme le souligne Ian Hacking, Le plus pur nominalisme, Combas, L’éclat, 1993, p. 9: “Utiliser un nom pour une espèce, c’est (entre autres choses) vouloir réaliser des généralisations et former des anticipations concernant des individus de cette espèce. La classification ne se limite pas au tri : elle sert à prédire. C’est une des leçons de la curieuse “énigme” que Nelson Goodman publia il y a quarante ans.” [33] Le fait qu’un même critère puisse servir à la fois de critère commun et de critère différencié (en recourant éventuellement à des taxons différents). [34] C’est-à-dire le nombre de combinaisons rendues possibles. [35] Cette énumération ne prétend pas être exhaustive. Une étude plus approfondie de cette question serait bien entendu nécessaire. [36] Je remercie le rédacteur de Dialogue ainsi que deux experts anonymes pour l’ensemble de leurs commentaires concernant une version précédente de cet article.

Introduction à la philosophie analytique: Paradoxes, arguments et problèmes contemporains

3ème édition, avec de nouvelles illustrations

Dans cet ouvrage (3ème édition), Paul Franceschi nous livre une introduction à la philosophie analytique. De manière concrète, il choisit de décrire quarante paradoxes, arguments ou problèmes philosophiques, qui constituent autant de défis pour la philosophie contemporaine et l’intelligence humaine. Car certains paradoxes d’origine millénaire – tels que le Menteur ou le paradoxe sorite – ne sont toujours pas résolus à l’époque actuelle. D’autres énigmes philosophiques en revanche – telles que l’argument de l’Apocalypse – ne sont apparues que très récemment dans la littérature. L’auteur s’attache à nous présenter clairement chacun de ces problèmes ainsi que les principales tentatives qui ont été formulées pour les résoudre.

“Un réjouissant concentré de casse-têtes: j’adore ce livre ! (…) Je suis vraiment impressionné par ce livre trés soigné et stimulant. Je le recommande chaudement, tant aux étudiants pour la pédagogie et la culture générale (dilemme du prisonnier, Terre-jumelle, etc.), qu’aux pros pour l’outil de référence, et même plus généralement à ceux qui aiment réfléchir.” Julien Dutant, Blog philosophique.

Les enfants d’Eubulide

Dans ce dialogue à trois personnages, Paul Franceschi transpose l’enseignement d’Eubulide – qui fut dirigeant de l’Ecole de Mégare – à l’époque contemporaine, 2500 ans plus tard. Pharamménion expose son enseignement à Ephilodie et à Vallidor. La discussion porte sur plusieurs des paradoxes célèbres introduits par Eubulide – le Menteur, le paradoxe sorite – mais aussi d’autre paradoxes modernes comme celui de la Belle au bois dormant, le paradoxe de Goodman, etc… Mais très vite, Ephilodie et Vallidor découvrent que l’intérêt de l’étude des paradoxes ne réside pas seulement dans les paradoxes proprement dits, et commencent à entrevoir peu-à-peu toute la portée de l’enseignement initié par Eubulide. Des connexions inattendues se font jour…