Le multivers

Le noeud du raisonnement est que les phénomènes d’interférence observés avec une seule particule excluent de pouvoir considérer l’univers tangible comme le tout de ce qui existe.

Advertisements

Et maintenant un point de terminologie. Le mot «Â univers » désigne traditionnellement «Â l’ensemble de la réalité physique », et dans ce cas, il ne peut évidemment exister plus d’un univers. On pourrait se conformer à cet usage et déclarer que l’enité qu’on appelle habituellement «Â l’univers » — à savoir, la matière et l‘énergie directement perceptibles et l’espace qui les entoure — ne représente en réalité qu’une toute petite partie de la réalité globale. Il faudrait alors inventer un autre nom pour désigner cette petite fraction, tangible, de l’univers tout entier. L’usage répandu parmi les physiciens veut que l’on garde le mot «Â univers » pour désigner ce qu’il a toujours désigné, même si l’on sait bien que cette entité n’est qu’une faible partie de la réalité physique. Un néologisme, multivers, permet alors de parler de la réalité physique toute entière.

Les expriences sur un seul photon du type de celles qui viennent d‘être décrites montrent que le multivers existe bel et bien et qu’il contient un grand nombre de particules qui sont les homologues des particules de l’univers tangible. Afin de démontrer que le multivers est en outre divisé en univers parallèles, il faut considérer des phénomènes d’interférence faisant intervenir plus d’une particule tangible. Le plus simple, à cet égard, est encore de se demander, à l’aide d’une «Â expérience de pensée », ce qui se passe au niveau microscopique lorsque des photons fantômes rencontrent un objet opaque. Il est évident qu’ils sont arrêtés dans leur course — comme le montre le fait que l’interférence disparaisse lorsque l’on interpose un obstacle opaque sur le trajet des photons fantômes. Mais pourquoi sont-ils arrêtés? Qu’est-ce qui les arrête? Il est facile d‘éliminer la première réponse qui vient à l’esprit: non, les photons ne sont pas absorbés, comme le sont les photons tangibles par les atomes tangibles de l’obstacle. Ne serait-ce que parce que les photons fantômes n’interagissent pas avec des atomes tangibles. D’ailleurs, on peut le vérifier en effectuant des mesures sur les atomes de l’obstacle (ou plus précisément, en remplaçant l’obstacle par une panoplie de détecteurs); on constate alors que ces atomes n’absorbent aucune énergie et ne changent pas non plus d‘état s’ils ne sont pas bombardés par des photons tangibles. Un photon fantôme ne produit aucun effet.

Ce qui revient à dire que les photons tangibles et les photons fantômes sont affectés de la même façon lorsqu’ils tombent sur un obstacle, mais que l’obstacle lui-même n’est pas affecté de la même façon par les deux types de photons. De fait, pour autant que nous le sachions aujourd’hui, l’obstacle n’est pas du tout affecté par les photons fantômes. C’est même ce qui définit ces derniers, car si un certain type de matériau était affecté par eux, il pourrait servir à fabriquer des détecteurs de photons fantômes et le phénomène des ombres ne serait pas tel qu’il vient d‘être décrit.

D’où il résulte qu’il dit y avoir une espèce d’obstacle fantôme, situé au même endroit que l’obstacle tangible. Il ne faut pas déployer des trésors d’imagination pour aboutir à la conclusion que l’obstacle fantôme est lui-même constitué d’atomes fantômes, dont on connaît déjà l’existence en tant qu’homologues des atomes tangibles de l’obstacle. A chaque atome tangible correspondent de nombreux atomes fantômes, si nombreux que leur densité, même au sein du plus fin des brouillards, permettrait d’arrêter un char d’assaut, a fortiori un photon… si toiutefois les atomes fantômes pouvaient affecter un photon — ce qui n’est pas le cas. Etant donné — c’est un fait d’observation — que les obstacles partiellement transparents le sont tout autant pour les photons fantômes que pour les photons tangibles, il s’ensuit que tout les atomes fantômes qui se trouvent sur le chemin d’un certain photon fantôme ne participent pas au processus d’arrêt de ce dernier. Chaque photon fantôme rencontre à peu près le même type d’obstacle que son homologue tangible, obstacle constitué d’une infime partie de tous les atomes fantômes en présence.

Pour des raisons analogues, chaque atome fantôme de l’obstacle n’interagit qu’avec une fraction infime des autres atomes fantômes qui se trouvent à proximité et ceux avec lesquels il interagit forment un obstacle très semblable à l’obstacle tangible. Cette structure vaut pour la matière dans son ensemble et pour tous les phénomènes physiques: si l’obstacle tangible est la rétine d’une grenouille, il existe une multitude de rétines fantômes, chacune susceptible d’arrêter un seul des photons homologues d’un même photon. Cette structure laisse supposer que les particules se regroupent pour former des univers parallèles. Ces univers sont «Â parallèles » en ceci qu’au sein de chacun les particules interagissent entre elles exactement comme elles le font dans l’univers tangible, mais chaque univers n’affecte que faiblement les autres univers,via le phénomène d’interférence.

Nous voici parvenus au terme d’une chaîne de raisonnements qui, partant des formes bizarres présentées par les ombres, nous a conduits aux univers parallèles. Les diverses étapes du raisonnement ont toutes la même structure simple: on constate que le comportement des objets observés ne peut s’expliquer que s’il existe des objets non observés, possédant telle ou telle propriété. Le noeud du raisonnement est que les phénomènes d’interférence observés avec une seule particule excluent de pouvoir considérer l’univers tangible comme le tout de ce qui existe. Que de tels phénomènes d’interférences se produisent, personne n’en doute. D’où vient alors que la conception d’une pluralité d’univers reste encore minoritaire parmi les physiciens ?

La réponse — je dois l’avouer — ne fait pas honneur à la majorité de ces mêmes physiciens. (…) pour le moment, je me contente de faire remarquer que les arguments avancés ici ne sont contraignants que pour ceux qui sont à la recherche d’explications. Libres à ceux qui se satisfont de faire des prédictions et ne cherchent pas à savoir d’où viennent les résultats attendus d’une expérience de nier l’existence d’autre chose que ce qui a été appelé des entités «Â tangibles ». Pour les instrumentalistes et les positivistes, c’est une question de principe, une question de philosophie. Pour certains autres, «Â il vaut mieux ne pas penser à tout cela »: la conclusion à laquelle on aboutit est trop dérangeante. Je pense qu’ils ont tort et j’espère convaincre ceux qui auront la patience de me supporter que comprendre le multivers est la condition sine qua non pour comprendre la réalité aussi bien qu’il est possible. Je dis cela non pas pour prendre la pose sinistre et butée de celui qui cherche la vérité quoi qu’il en coûte, aussi désagéable soit-elle (la vérité) — et encore j’espère bien être capable d’adopter cette attitude s’il le fallait. Non, je défends cette position parce que la conception du monde qui en résulte me semble plus cohérente, à bien des égards plus raisonnable, que toutes les conceptions du monde antérieures, en particulier que le cynisme pragmatique qui aujourd’hui tient trop souvent lieu de conception du monde dans le milieur scientifique.

Mais pourquoi ne pas simplement dire, demandent certains physiciens pragmatiques, que les photons se comportent comme s’ils interagissaient avec des entités visibles? Pourquoi ne pas s’en tenir là? Après tout, nous ne sommes pas tenus de prendre position sur la question de savoir si les entités existent vraiment ». Ou encore (variante plus philosophique): «Â un photon tangible est réel. Un photon fantôme ne représente qu’un comportement, parmi d’autres, que le photon aurait pu adopter, mais n’a pas adopté. En sorte que la théorie quantique traite de l’interaction du réel et du possible«Â . Cette formulation semble, à première vue, aller au fond des choses. Malheureusement, ses auteurs — parmis lesquels on compte des physiciens de premier plan, qui devraient être plus avertis — sombrent dans la confusion mentale lorsqu’ils prolongent leur argumentation. Gardons donc la tête froide. Le fait déterminant est qu’un photon tangible, réel, ne se comporte pas de la même façon selon que telle ou telle portion de chemin, située en un autre endroit dans l’appareil, peut, ou ne peut pas, être empruntée par quelque chose qui, au bout du compte, intercepte le photon tangible. Quelque chose se déplace le long de ces trajets et refuser de qualifier ce quelque chose de «Â réel », c’est jouer sur les mots. Le «Â possible » ne peut pas interagir avec le réel: des entités inexistantes ne peuvent pas détourner de leur chemin d’autres qui sont réelles. Si un photon est dévié, il l’a été par quelque chose et à ce quelque chose j’ai donné le nom de «Â photon fantôme ». Lui donner un nom ne le rend pas réel, mais il est impossible qu’un événement qui s’est réellement produit, l’arrivée ou la détection d’un photon tangible par exemple, ait pour cause un événement imaginaire, du genre «Â ce que ce photon aurait pu faire, mais n’a pas fait ». Seul ce qui se passe réellement peut faire qu’une chose se passe réellement. Si les mouvements complexes des photons fantômes lors d’une expérience d’interférence n‘étaient que des possibilités qui ne s‘étaient pas réellement produites, les interférences ne se produiraient pas.

Que les effets d’interférence soient généralement si faibles, et donc si difficiles à mettre en évidence, c’est ce dont rendent compte les lois de la mécanique quantique qui les régissent. Parmi les conséquences de ces lois, citons-en deux qui ont ici leur importance. Premièrement, chaque particule subatomique a un homologue dans les autres univers et n’interfère qu’avec ces homologues. On n’observe donc d’interférence que dans des situations bien particulières, lorsque des chemins suivis par une particule et ses homologues fantômes se séparent puis se rejoignent (c’est ce qui se passe lorsqu’un photon et son fantôme se dirige vers le même point de l‘écran). Il faut de plus que les horaires des événements soient respectés: si l’un des trajets ajoute un retard, l’interférence est diminuée, voire empêchée. Deuxièmement, pour détecter des interférences entre deux univers, il faut que se produise une interaction entre toutes les particules dont les positions (et les autres attributs) ne sont pas identiques dans les deux univers. Cela a pour conséquence pratique que seule l’interférence entre univers très semblables est décelable. c’est le cas des expériences qui viennent d‘être décrites où les univers qui interfèrent ne diffèrent que par la position d’un seul photon. Si un photon agit sur d’autres particules, et en particulier s’il est observé, ces autres articules et l’observateur se trouvent différenciés dans les univers parallèles. Dans ce cas, toute interférence ultérieure impliquant ce photon sera non décelable en pratique car il est impossible (ou trop compliqué) de préparer l’interaction entre toutes les particules affectées, interaction pourtant requise pour qu’il y ait interférence. Il faut remarquer, à cet égard, que la phrase généralement utilisée pour décrire cet état des choses, à savoir «Â l’observation détruit toute interférence, est trompeuse, pour trois raisons. Tout d’abord, elle laisse supposer l’existence d’une sorte d’effet cinétique exercé par«Â observateur » doué de conscience sur les phénomènes physiques fondamentaux ce qui n’est pas le cas. Ensuite, l’interférence n’est pas «Â détruite »: elle est simplement plus difficile (beaucoup plus difficile) à observer parce qu’elle requiert un contrôle précis du comportement d’un plus grand nombre de particules. Enfin, l’observation n’est pas seule à produire ce phénomène; c’est vrai de tout effet exercé par le photon sur son environnement dépendant du trajet suivi par le photon.

Pour les lecteurs qui seraient familiers avec d’autres manières de présenter la théorie quantique, il me faut établir aussi brièvement que possible un lien entre ce chapitre et la manière dont les mêmes faits sont généralement présentés. Peut-être parce qu‘à l’origine le débat a été ouvert par les théoriciens, on prend souvent comme point de départ la théorie quantique elle-même. On commence par l’exposer aussi soigneusement que possible et, alors seulement, on se pose la question de savoir ce qu’elle dit concernant la réalité. C’est la seule démarche possible si l’on veut acquérir une compréhension détaillée des phénomènes quantiques. Mais pour qui cherche «Â seulement » à savoir en quoi consiste la réalité, si elle est faite d’un seul univers ou de plusieurs, cette approche est inutilement compliquée. C’est pourquoi je ne l’ai pas adoptée au cours de cet exposé. Je n’ai même pas cité les divers postulats de la théorie quantique — je n’ai fait que décrire certains phénomènes physiques et j’en ai tiré les conclusions qui s’imposaient. Mais si l’on tient absolument à partir de la théorie, il faut tenir compte de deux caractéristiques sur lesquelles tout le monde s’accorde. Tout d’abord l’extraordinaire pouvoir de prédiction de la théorie quantique: elle prédit les résultats des expériences sans même que l’on ait à se soucier de ce que veulent dire ses quations. Ensuite le caractère inouï et bizarre des affirmations produites par cette théorie quant à la nature de la réalité. A cet égard, Hugh Everett a été le premier (dès 1957, soit seulement trente ans après que la théorie quantique soit devenue la base de notre compréhension du monde atomique) à voir que la théorie quantique décrit un multivers. Depuis, les discussions portent sur la possibilité de contourner cette interprétation en en produisant une autre, selon laquelle la théorie quantique ne décrirait qu’un seul univers. La question est donc: les prédictions que fournit la théorie quantique obligent-elles à accepter l’existence d’univers parallèles ?

Je pense pour ma part que poser la question dans ces termes, c’est mettre la charrue avant les boeufs. A supposer que les prédictions de la théorie quantique puissent être énoncées sans qu’il soit nécessaire de parler d’univers multiples, cela ne changerait rien au fait que les photons forment des ombres de la façon que je viens de décrire. Or, il est facile de comprendre, sans rien connaître de la théorie quantique, que ces ombres ne peuvent en aucun cas résulter de l’histoire d’un photon unique allant de la torche à l’oeil de l’observateur. Les ombres sont incompatibles avec toute explication en termes des seuls photons visibles, des seuls obstacles visibles, d’un seul univers, celui que nous voyons.

Accepter les prédictions de la théorie quantique n’impose pas forcément d’admettre l’existence d’univers parallèles. En effet, il est toujours possible de réinterpréter n’importe quelle théorie en termes instrumentalistes, évitant par là même d’avoir à dire quoi que ce soit concernant la réalité. Mais le problème n’est pas d’affirmer l’existence d’univers parallèles (pour cela il n’est pas besoin de théories sophistiquées, l’examen des ombres portées suffit); le problème est d’expliquer et prédire ces phénomènes, et pour cela on a besoin de théories savantes qui disent ce que sont les autres univers, à quelles lois ils obéissent, comment ils s’influencent les uns les autres, etc. C’est précisément ce que fait la théorie quantique. La théorie quantique des univers parallèles n’est pas une interprétation plus ou moins douteuse, que l’on est libre d’adpopter ou de refuser, fruit de considérations théoriques réservées aux seuls initiés. La théorie des univers parallèles est une explication — la seule qui puisse être soutenue — d’une réalité éminemment contre-intuitive.

Jusqu‘à présent, je me suis servi d’une terminologie provisoire qui laisse entrendre que l’un de ces univers parallèles serait différent des autres, en ceci qu’il est «Â tangible ». Il n’est que temps de couper ce cordon ombilical qui nous rattache à une conception classique de la réalité en termes d’univers singulier. Pour cela, revenons à nos grenouilles. On a vu que parler d’une grenouille dont le regard est fixé pendant des jours et des jours sur une lointaine lampe torche, attendant que se déclenche enfin un clignotement dont la fréquence ne dépasse pas un par jour, ne suffit pas et qu’il faut introduire des grenouilles fantômes, coexistant avec la première mais dans d’autres univers, attendant elles aussi le surgissement d’un photon. Supposons que l’on ait dressé la grenouille à faire un bond chaque fois qu’elle voit un éclair. Au début de l’expérience, la grenouille possède de nombreux homologues fantômes qui, s’ils sont identiques, ne le restent pas longtemps. Car si chaque homologue a peu de chance de voir un photon immédiatement après le début de l’expérience, cet événement hautement improbable dans l’univers d’un seul homologue devient un événement relativement courant dès lors qu’on considère l’ensemble de ces univers, le multivers dans son entier. A chaque instant, il se trouve un (ou plusieurs) univers où l’un des photons est en train d’atteindre la rétine de la grenouille dans cet (ou ces) univers.

Mais doit-on pour autant, en conclure que cette (ou ces) grenouille(s) se met(tent) à bondir? Oui, parce que dans son univers, chaque grenouille obéit aux mêmes lois de la physique que celles qui ont cours dans l’univers des grenouilles tangibles: sa rétine fantôme a été atteinte par un photon fantôme du même univers, ce qui a provoqué dans une molécule photosensible fantôme de cette rétine fantôme des modifications chimiques complexes, auxquelles le nerf optique fantôme de la grenouille fantôme a, à son tour, réagi, en transemttant un mesage au cerveau fantôme de la grenouille fantôme, provoquant chez cette dernière la sensation de voir un clignotement.

mais, ne devrait-on pas qualifier cette sensation, elle aussi, de fantôme et parler de sensation fantôme? Certainement pas. Car si les observateurs fantômes, grenouilles ou êtres humains, sont réels, leurs sensations doivent l‘être également. Lorsqu’ils observent ce que nous serions tentés d’appeler des objets fantômes, ils les observent en tant qu’objets tangibles, par les mêmes procédés, et en fonction des mêmes définitions, ce qui nous permet de dire que l’univers que nous observons est «Â tangible ». Le fait d‘être tangible doit toujours être rapporté à un observateur particulier. Autrement dit: d’un point de vue objectif, il n’y a pas lieu de distinguer deux types de photons, ceux qui sont tangibles et ceux qui sont fantômes; pas plus qu’il ne faut distinguer deux types de grenouilles, ou deux types d’univers dont un seul serait tangible et les autres fantômes. Pourtant, lorsque j’ai introduit les photons tangibles et les photons fantômes, j’ai décrit les premiers comme pouvant être vus. Oui, mais vus par qui? Au moment où moi David Deutsch j‘écris ce chapitre, des milliers de David Deutsch fantômes écrivent le même chapitre. Eux aussi établissent une distinction entre photons tangibles et photons fantômes; mais parmi les photons qu’ils qualifient de «Â fantômes », se trouvent des photons que moi j’ai qualifiés de «Â tangibles » et réciproquement.

Aucune des copies d’un même objet ne jouit d’un statut privilégié dans l’explication qui vient d‘être donnée. Pas plus que dans l’explication mathématique que donne la théorie quantique. Certes j’ai l’impression, subjective, d‘être, parmi toutes les copies de moi-même, celle qui est «Â tangible », parce que j’ai de moi-même, et pas des autres, une perception directe. Mais il faut que je me fasse à l’idée que les autres ont la même impression subjective à propos d’eux-mêmes.

David Deutsch, L‘étoffe de la réalité.

Nous, la particule et le monde

Les lois valables à l‘échelle de l’infiniment petit, donc à une échelle tellement différente de celle de l’homme, concernent-elles celui-ci ? En d’autres termes, la nature a-t-elle quelque chose à nous dire sur nous-même ?


Extraits

«Â En fait, une vaste auto-consistance semble régir l‘évolution de l’univers, auto-consistance concernant aussi bien les interactions physiques que les phénomènes de la vie. Les galaxies, les étoiles, les planètes, l’homme, l’atome, le monde quantique semblent unis par une seule et même auto-consistance. Les relations mises en évidence par le principe anthropique sont, à notre avis, un signe de cette auto-consistance. Elles posent à nouveau le problème de l’unicité du monde observé. »

«Â Mais la manière dans laquelle le bootstrap réalise l’unité des contradictoires le rapproche plus de Lupasco que de Hegel. C’est une «Â trialectique » et non pas une «Â dialectique » qui est nécessaire pour comprendre les fondements logiques du principe de bootstrap. »

«Â Paradoxalement, ce n’est pas dans l’approche du bootstrap (qui est fondée, par définition, sur une vision de l’unité du monde) que ces nouvelles idées ont été formulées. Elles sont apparues dans la théorie quantique des champs », fondée sur une méthodologie différente de celle du bootstrap : cette théorie postule l’existence d’«Â entités fondamentales » (dans ce cas – les champs »). »

«Â Mais comme l‘écrivait récemment Steven Weinberg, prix Nobel de physique, «Â …le développement de la théorie quantique des champs depuis 1930 fournit un curieux contre-exemple : l‘élément essentiel de progrès a été la réalisation incessante qu’une révolution n‘était pas nécessaire. Si la mécanique quantique et la relativité sont des révolutions dans le sens de la Révolution Française de 1789 ou de la Révolution Russe de 1917, alors la théorie quantique des champs est plutôt semblable à la Glorieuse Révolution de 1688 : plus ça change, plus ça reste la même chose ». L’absence d’une «Â révolution » n’a pas empêché la théorie quantique des champs d‘évoluer et d’attirer l’intérêt de la communauté des physiciens. Une extraordinaire floraison d’idées nouvelles, toujours dans le même cadre conceptuel, a déterminé un approfondissement important de notre compréhension du monde physique, de la particule au cosmos. Toutes ces idées sont centrées sur une idée unique : celle de l’unification de toutes les interactions physiques. »

«Â Nous avons pourtant découvert des centaines de hadrons et aussi quelques leptons et bosons électrofaibles qui n’existent pas «Â naturellement » dans notre univers. C’est nous qui les avons tirés du néant, en bâtissant nos accélérateurs et d’autres appareils expérimentaux. Nous sommes, dans ce sens aussi, participants à une réalité qui nous englobe, nous, nos particules et notre univers. »

«Â Le vide quantique est, je crois, une merveilleuse facette de la Réalité, qui nous montre que nous ne devons pas nous arrêter aux «Â illusions » créées par notre propre échelle. Les quanta, les vibrations, qu’ils soient «Â réels » ou «Â virtuels », sont partout. Le vide est «Â plein » des vibrations . Il contient potentiellement toute la Réalité. L’Univers entier a peut-être été tiré du néant par une «Â gigantesque fluctuation du vide que nous connaissons aujourd’hui comme étant le big-bang ». »

«Â La deuxième possibilité est que le processus de «Â jeu de construction » ne s’arrête jamais . A une certaine échelle on peut avoir l’impression d’«Â objets fondamentaux », mais ils sont, à leur tour, constitués d’autres «Â objets fondamentaux à une plus petite échelle, dans un processus sans fin. C’est la vision de ce qu’on pourrait appeler l’atomisme mou, qui implique en fait une dissolution totale mais ambiguë de la notion d’«Â objets fondamentaux ». »

«Â …les physiciens, dans leur grande majorité, ont adopté le point de vue du bootstrap dans la décennie 1960-1970. »

«Â Mais, dans le grand jeu de l’invention scientifique, le feu ardent de l’imaginaire joue souvent un rôle prédominant par rapport au calme imperturbable de la logique scientifique. »

«Â … Arthur Koestler L’Acte de création : l’anecdote est mêlée à l’essentiel, l’accidentel masque les aspects majeurs, la recherche du sensationnel perturbe l’analyse rigoureuse. La méthode «Â journalistique » n’est simplement pas adéquate à l‘étude du rôle de l’imaginaire. »

«Â Le moi inconscient, dit Henri Poincaré, «Â …est capable de discernement, il a du tact, de la délicatesse, il sait choisir, il sait deviner… En un mot, le moi subliminal n’est-il pas supérieur au moi conscient?.

(…) Jacques Hadamard met en évidence le rôle crucial de la très courte période intermédiaire située entre le sommeil et le réveil :

«Â Un phénomène est certain et je puis répondre à son absolue certitude: c’est l’apparition soudaine et immédiate d’une solution au moment même d’un réveil soudain. Ayant été réveillé très brusquement par un bruit extérieur, une solution longuement cherchée m’apparut immédiatement sans le moindre instant de réflexion de ma part — fait assez remarquable pour m’avoir frappé de façon inoubliable — et dans une voie entièrement différente de toutes celles que j’avais tenté de suivre auparavant ».

«Â La similarité de nature entre le fonctionnement de l’imaginaire dans la création artistique et celui dans la création scientifique est un fait remarquable…

(…) La réponse d’Einstein est éclairante sur la réalité de cette pensée sans mots : «Â les mots et le langage, écrits ou parlés, ne semblent pas jouer le moindre rôle dans le mécanisme de ma pensée. Les entités psychiques qui servent d‘éléments à la pensée sont certains signes ou des images plus ou moins claires, qui peuvent à «Â volonté » être reproduits et combinés…

Les éléments que je viens de mentionner, sont dans mon cas, de type visuel et parfois moteur. Les mots ou autres signes conventionnels n’ont à être cherchés avec peine qu‘à un stade secondaire, où le jeu d’associations en question est suffisamment établi et peut être reproduit à volonté… »
La remarque d’Einstein sur le rôle des éléments moteurs dans le fonctionnement de l’imaginaire est intéressante, car elle montre que le «Â signal » reçu n’est pas nécessairement visuel, mais il peut être aussi «Â cinétique » ou «Â auditif », fait confirmé par d’autres réponses à l’enquête d’Hadamard.
L’hypothèse de Gilbert Durand sur «Â une étroite concomitance entre les gestes du corps, les centres nerveux et les représentations symboliques » semble être donc pleinement justifiée.

L’affirmation paradoxale de Souriau, «Â Pour inventer, il faut penser à côté » prend ainsi toute sa signification. L’invention scientifique est stimulée par une certaine relaxation physique -beaucoup de mathématiciens parlent des solutions trouvées pendant le sommeil ou juste au moment du réveil. Elle est aussi stimulée par une certaine attitude de «Â laisser-faire », de mise en veilleuse de la pensée logique ordinaire, qui favorise l’apparition d’une sorte de nouvelle attention. »

«Â Il serait tentant de croire que l’idée de complémentarité est d’inspiration taoiste : quand Bohr a reçu, en 1947, l’ordre de l‘Éléphant, il a choisi comme symbole de ses armoiries celui du Yin et du Yang, surmonté par la devise Contraria sunt complementa.

(…) Gérald Holton a mis en évidence le rôle crucial joué dans la formulation du principe de complémentarité par la lecture par Bohr du livre de William James (et tout spécialement le chapitre Le Courant des pensées ), lu vers 1910, a été pour lui une vraie révélation. Selon Meyer- Abich, Jammer ou Holton, le terme de «Â complémentarité » a été emprunté à William James. »

«Â Tout d’abord, grâce à l’imaginaire, Bohr a pu saisir le parallélisme étonnant entre le fonctionnement pathologique de la conscience chez les hystériques et l’interprétation des phénomènes quantiques fondée sur la logique classique. »

«Â L’histoire de la science foisonne d’exemple de résultats obtenus longtemps avant que les méthodes de démonstration soient élaborées (les cas de Fermat, Galois ou Riemann sont parmi les plus connus). »

«Â Fernand Brunner, dans son livre Science et Réalité, distingue avec justesse «Â science objective » et «Â science subjective ». Il démontre d’une manière convaincante que, malgré tout ce qu’on peut dire ou croire, la science contemporaine est «Â subjective«Â Â : elle est essentiellement un prolongement des organes des sens dans sa préoccupation exclusive du monde «Â extérieur ». »

«Â La séparation tranchée entre «Â esprit » et «Â matière » peut être considérée comme une construction mentale, fondée sur l’image classique de la Réalité. Nous ne pouvons qu’approuver la conclusion du physicien Heinz Pagels quand il écrit dans son livre Le Code Cosmique : Le monde invisible n’est ni matière, ni esprit mais l’organisation invisible de l‘énergie ». La science moderne est devenue effectivement le règne de l’invisible, de l’organisation de l‘énergie à des niveaux de plus en plus subtils de matérialité.

La vision quantique, systémique du monde est, dans un certain sens, plus matérialiste que le matérialisme et plus religieux que la religion. Un lien invisible unit ainsi des approches philosophiques contemporaines, comme celles de Lupasco ou de certains représentants du courant systémique, à la vision de la Réalité des penseurs traditionnels comme Bohme ou Gurdjieff ou des philosophes pré-quantiques comme Peirce. »

«Â Rationnel » et «Â irrationnel », «Â matière » et «Â conscience », «Â matière » et «Â esprit », «Â finalité » et «Â non-finalité », «Â ordre » et «Â désordre », «Â hasard » et «Â nécessité », etc., etc., sont des mots usés, fanés, dévalués, «Â putanisés », fondés sur une vision classique de la Réalité, en désaccord avec les faits. Leurs couples d’opposés provoquent des polémiques sans fin et le déchaînement de passions viscérales. on peut ainsi écrire des tonnes de livres sans faire avancer d’un pouce la connaissance.
Il faudrait plutôt inventer des mots complètement nouveaux pour approcher la richesse d’une réalité à la fois plus complexe et plus harmonieuse que celle de la vision classique.
(…) La nouvelle rationalité aura certainement une naissance difficile.

«Â La découverte palpable, expérimentale d’une échelle «Â invisible » pour les organes des sens (l‘échelle quantique), où les lois sont complètement différentes de celles de l‘échelle «Â visible » de notre vie de tous les jours, a été probablement la contribution la plus importante de la science moderne à la connaissance humaine. Le nouveau concept qui a ainsi émergé -celui de niveaux de matérialité – est parmi ceux qui peuvent fonder une nouvelle vision du monde. Comme nous l’avons vu, le monde des événements quantiques et subquantiques est tout à fait différent de celui auquel nous sommes habitués. »

«Â Des pas considérables vers la compréhension d’une éventuelle relation entre le monde de la science et le monde des symboles ont été effectués grâce aux travaux du physicien et historien des sciences Gerald Holton. Holton a su mettre en évidence l’existence de structures cachées mais stables dans l‘évolution des idées scientifiques. il s’agit de ce que Holton appelle les thêmata, c’est-à-dire des présupposés ontologiques, inconscients pour la plupart, mais qui dominent la pensée d’un physicien ou d’un autre. Ces «Â thêmata » sont cachés, même à celui qui les emploie : ils n’apparaissent pas dans le corps constitué de la science, qui ne laisse transparaître que les phénomènes et les propositions logiques et mathématiques. Pour les découvrir Holton a dû sonder les documents privés, la correspondance des physiciens, les échanges où se cristallisent les idées novatrices avant de passer dans le fond commun de la connaissance scientifique. Ces «Â thêmata » concernent donc ce qu’il y a de plus intime, de plus profond, dans la genèse d’une nouvelle idée scientifique. L’ancienneté et la persistance de certains «Â thêmata » peuvent surprendre et choquer la croyance dans la nouveauté à tout prix, mode qui a pénétré même dans le monde de la science. Aussi, il est surprenant de constater le nombre restreint de «Â thêmata » qui traversent les travaux scientifiques qui sont pourtant d’une grande variété. Holton a dénombré seulement quelques dizaines de «Â thêmata » dans toute l’histoire de la science, ce qui lui permet de conclure qu’il se pourrait «Â que ce soit cette résistance au temps des thêmata relativement peu nombreux, ainsi que leur diffusion, à un moment donné, au sein de la communauté, qui assure à la science, malgré les développements et les mutations qu’elle connaît, la permanence d’identité qu’elle préserve en une certaine mesure ».
Les «Â thêmata » se présentent généralement sous la forme d’alternatives doubles ou triples : évolution-involution, continu-discontinu, simplicité-complexité, invariance-variation, holisme réductionnisme, unité-structure hiérarchique, constance-changement, etc. Par leur généralité et leur persistance dans le temps, les «Â thêmata » semblent être proches des symboles. En commentant l’oeuvre de Holton, Angèle Kremer-Marietti écrit : «Â …avant de se poser publiquement comme «Â la » science, l’activité du savant est encore et seulement une élaboration de symbolisation… »
A notre avis, les «Â thêmata » ne sont pas des symboles, mais plutôt des facettes d’un symbole. Un thêmata présuppose la séparation, l’opposition d’un des cas d’une alternative par rapport à l’autre cas («Â unité » vs. «Â structure hiérarchique », par exemple). Les thêmata absolutisés sont donc les germes du crypto-fanatisme qui alimente périodiquement les grandes polémiques à l’intérieur de la science. En revanche, le symbole présuppose l’unité des contradictoires (et «Â unité » et «Â structure hiérarchique », par exemple).

(…) le principe de «Â bootstrap », formulé par Geoffrey Chew en 1959 dans la physique des particules. »

«Â Le bootstrap conçoit donc la nature comme une entité globale, non-séparable au niveau fondamental.

En tant que vision de l’unité du monde et par ses conséquences concernant la nature de la Réalité, le principe de bootstrap semble proche de la Tradition. Böhme ne disait-il pas, dans Mysterium pansophicum : «Â …le tout ensemble n’est qu’un seul être… » et, encore, dans L’Aurore naissante, ne formulait-il pas un véritable principe de «Â bootstrap cosmique » quand il écrivait : «Â Le soleil est engendré et produit de toutes les étoiles. Il est la lumière extraite de l’universelle nature, et à son tour il brille dans l’universelle nature de ce monde, où il est lié avec les autres étoiles, comme ne faisant avec elles toutes qu’une seule étoile ». Il est intéressant aussi de mentionner que, dans la cosmologie de Gurjieff, il y a un processus de «Â maintenance générale » de l’univers, appelé «Â système Trogoautoégocrate », qui peut être considéré comme l‘équivalent, en langue gurdjevienne, du principe de «Â bootstrap ».

Dans un article paru en 1968, portant le titre provocateur «Â Bootstrap«Â Â : une idée scientifique ?, Chew lui-même observait que l’idée de «Â bootstrap », dans sa formulation la plus générale, est «Â … beaucoup plus ancienne que la physique des particules… ». Il continuait : «Â Le nombre de concepts a priori a diminué avec le progrès de la physique, mais il semble que la science, telle que nous la connaissons, demande quand même un langage basé sur un nombre de concepts admis a priori. Donc, du point de vue sémantique, la tentative d’expliquer tous les concepts peut être difficilement appelée «Â scientifique »… ». Et Chew concluait : «Â Portée à ses extrémités logiques, l’hypothèse de bootstrap implique que l’existence de la conscience, considérée en même temps que tous les autres aspects de la nature, est nécessaire pour l’autoconsistance du tout. »

«Â … l’unité apparaît par l’interaction d’une particule avec toutes les autres particules, tandis que la structure hiérarchique se manifeste par l‘émergence des différents niveaux de la Réalité physique, ainsi que par le rôle joué par les «Â quarks »… »

«Â C’est dans ce sens qu’on peut comprendre les mots d’Abdus Salam, prix Nobel de physique : «Â …Concernant la dynamique, notre Cour Suprême d’Appel, quand tout autre chose échoue, est le mécanisme de bootstrap, le principe d’auto-consistance de l’Univers… ». Une théorie ouverte peut changer, dans le temps, sa forme, son formalisme mathématique, mais sa direction reste toujours la même.

(…) La science et la Tradition sont différentes par leur nature, par leurs moyens, par leur finalité. La seule manière de comprendre leur interaction est de les concevoir comme deux pôles d’une et même contradiction, comme deux rayons d’une seule et même roue qui, tout en restant différents, convergent vers le même centre : L’homme et son évolution. »

«Â La transition de la mécanique classique à la mécanique relativiste a pu être faite grâce à l’abandon du concept d’espace absolu et grâce à la reconnaissance, considérée aujourd’hui comme géniale, par Einstein, de la similarité de nature entre l’espace et le temps.

(…) Le temps est le résultat du mouvement, du changement, du dynamisme logique : «Â …qui dit passage d’un état à un autre, d’une certaine quantité d‘énergie potentielle à une certaine quantité d‘énergie actualisée, dit mouvement, dit succession, dit temps… ». Le temps est donc engendré par le conflit entre l’identité et la diversité «Â …qui constitue la notion même de changement… ».
L’espace est, lui aussi, un résultat du dynamisme logique : «Â Un espace n’est rien d’autre que la simultanéité des événements ou éléments, comme des systèmes de systèmes, qu’engendre la logique de l‘énergie… ». Mais comment peut-on concevoir la simultanéité ? «Â Pour qu’il y ait simultanéité et conjonction il faut…qu’il y ait des éléments à la fois identiques et divers, et plus la contradiction de l’identité et de la diversité sera fortement équilibrée, plus ils seront simultanés, constituant précisément cette notion d’ensemble… »

(…) le temps correspondant à une actualisation sera nécessairement discontinu, car il résulte de l’action concomitante de ces trois pôles avec leurs espaces-temps associés : «Â Tout temps évolue par saccades, par bonds, par avances et reculs, de par la constitution même de la dialectique qui lui donne naissance… La temporalité logique est ainsi discontinue… »

«Â …l‘élément…sera toujours, à son tour, composé d‘éléments, contiendra toujours structuralement d’autres éléments, sans que l’on puisse arriver jamais à un élément dernier qui signifierait… l’identité parfaite et la non-contradiction absolue…et qui réduirait donc toute chose à un élément unique, somme toute, à l’UN métaphysique… ».

Autrement dit ce qui est vu serait fait de ce qu’on ne peut pas voir . Dans ces conditions, il est difficile d’accorder un statut de particules physiques au quarks. Dirac observait avec subtilité certaines difficultés conceptuelles et expérimentales de la définition des constituants ultimes de la matière : «Â Avec le développement de l’idée d’antimatière la notion de particule élémentaire est devenue plus vague…On peut créer une particule et une antiparticule en utilisant une autre forme d‘énergie, et alors on ne peut plus affirmer qu’elles étaient présentes dans la matière initiale. On ne peut plus décrire d’une manière simple ce que sont les constituants ultimes de la matière. Les physiciens d’aujourd’hui sont confrontés à une situation plus compliquée où énormément de particules apparaissent comme étant aussi fondamentales les unes aux autres… ». Le point de vue de Lupasco (similaire à celui de la théorie du bootstrap) se trouve ainsi confirmé : le concept de constituant ultime de la matière est un concept asymptotique , un concept-limite, dénué d’existence expérimentale. Et même si un jour les quarks seront enfin isolés pourront-ils vraiment être considérés comme étant les constituants «Â ultimes » de la matière ? Certains physiciens pensent déjà que les quarks doivent être constitués, à leur tour, des «Â préons », constituants encore plus «Â ultimes » que les quarks. la quête des constituants «Â ultimes » de la matière semble être sans fin. »

«Â Les sociétés totalitaires, à tendance homogénéisante, sont bâties sur la croyance dans l’actualisation absolue, sur la volonté de transformer les «Â contradictoires » en «Â contraires ». Ces sociétés ne savent pas qu’elles sont destinés d’avance à la mort. Si, bien entendu, le monde est logique. D’autre part, les sociétés démocratiques sont , elles aussi, fondées sur la croyance dans l’actualisation absolue : celle de l’hétérogénéisation. Malgré leurs différences considérables, les sociétés totalitaires et les sociétés démocratiques possèdent une caractéristique fondamentale commune : celle de la potentialisation progressive de l‘état T . Le monde connaîtra-t-il un jour une société de type nouveau , trialectique, fondée sur l’actualisation progressive de l‘état T, ce qui implique un équilibre rigoureux entre l’homogénéisation et l’hétérogénéisation, entre la socialisation et la réalisation maximale sur le plan individuel ?

(…) Le déséquilibre du ternaire, la réalisation préférentielle d’une direction ou d’une autre par la suppression de la contradiction équivalent, selon la logique et la philosophie de Lupasco, à une redoutable «Â pathologie ». Les guerres et les révolutions sont, dans ce sens, d’immenses «Â psychoses » collectives.

La philosophie de Lupasco apparaît ainsi comme une philosophie de la liberté et de la tolérance .
(…) La tolérance est l’acceptation du contradictoire…

(…) De même, comme le soulignait Jacques Ruffié, le but de la sélection naturelle, par le polymorphisme génétique, n’est pas «Â que le meilleur gagne » mais la réalisation de la diversification individuelle, coexistant avec l’unité de la population biologique. un ensemble biologique est d’autant plus résistant qu’il est plus divers. »

«Â Il est donc compréhensible qu’un langage inexact puisse avoir un effet destructif sur l’homme : «Â Il est terrible de voir comment une seule idée confuse, une seule formule sans signification, cachée dans… la tête, va agir quelquefois comme un caillou de matière inerte obstruant une artère, entravant la nutrition du cerveau… »

«Â …(un «Â thêma » a ses racines dans l’imaginaire et on comprend ainsi pourquoi un seul et même «Â thêma » généralisé puisse se manifester, sous des aspects différents, dans toutes les branches de la connaissance).

(…) La spécialisation à outrance est certainement un «Â mal » nécessaire, car elle détermine l’accélération du progrès de la connaissance et des applications technologiques. Mais elle mène en même temps à l’obscurcissement du sens, à la progression inévitable de l’absurdité, du non-sens. «Â La spécialisation des sciences est une conséquence inévitable du progrès -écrivait le physicien Robert Oppenheimer. Pourtant, elle est pleine de danger et elle est cruellement gaspilleuse, car beaucoup de ce qui est beau et susceptible de jeter quelque lumière sur les ténèbres qui nous environnent se trouve, par la spécialisation, retranché du reste du monde ». »

«Â Toute théorie fondée exclusivement sur le «Â visible » équivaut à une cancérisation du corps de la Réalité.

(…) Dans un article mémorable, René Thom soulignait avec force la nécessité d’un retour des sciences «Â exactes » vers le «Â qualitatif », pour éviter les dangers de la stérilisation et de l’insignifiance. Ce retour pourrait s’opérer par la restauration du rôle de la réflexion individuelle, par un contact avec l’art et l’esthétique. Aussi paradoxal que cela puisse paraître, l’obsession du «Â quantitatif » mène inévitablement à une diminution progressive du «Â sens ». »

«Â La nouvelle transdisciplinarité donnera naissance à un paradigme qui va aller forcément au-delà et de la science et de la Tradition.

(…) Je n’irai pas jusqu‘à faire mienne l’idée de Korzybski qui suggérait que les politiciens devraient être soumis à des examens périodiques devant des commissions pluridisciplinaires. Mais il faut bien reconnaître que, dans une société civilisée, il est assez difficile d’admettre qu’un homme ou une femme ignore ce qui se passe dans l’univers et même dans son propre corps, en commençant avec les processus biologiques et en finissant avec le fonctionnement du cerveau et sous-conscient, puisse décider du destin de millions d‘êtres humains. La fameuse «Â intuition », justification de toute ignorance, a elle-même des degrés, des paliers. L’intuition peut se cultiver, s’informer. Il y a un nombre infini de degrés dans l’approche de la Réalité.

La finalité de la nouvelle transdisciplinarité n’est évidemment pas celle de bâtir une nouvelle utopie, un nouveau dogme dans la recherche du pouvoir et de la domination. Comme toute science, la nouvelle transdisciplinarité ne véhiculera pas de certitudes absolues mais, par un questionnement permanent du «Â réel », elle mènera à l‘élaboration d’une approche ouverte, en permanente évolution, qui se nourrira de toutes les connaissances humaines et qui replacera l’homme au centre des préoccupations de l’homme. »

Basarab Nicolescu , Nous, la particule et le monde.

La lumière nouménale

La musique de l’Esprit ne pourra jamais être que des «Â arrangements » sur le vaste thème de la Lumière. «Â Au commencement était le Verbe… et le Verbe était la véritable lumière ».

Voici donc la physique en possession d‘éléments lui permettant d’affirmer que l’Esprit, notre Esprit, se trouve localisé dans une petite particule constitutive des atomes de la Matière qui nous forme, l‘électron. Un électron que, pour rappeler qu’il possède des propriétés psychiques à côté de ses propriétés physiques, nous avons baptisé éon.

Les propriétés psychiques des éons nous ont été à l’origine révélées, nous l’avons vu, par la découverte d’un espace indivisible à propriétés néguentropiques, c’est-à-dire spontanément «Â organisateur », venant en quelque sorte «Â doubler » notre espace observable ordinaire, celui qui nous entoure et que tous (sauf les poètes) nous avions pensé qu’il constituait à lui seul tout l’Univers.

Cependant, nous ne devons pas comettre l’erreur de croire que l‘éon se présente comme une sorte de «Â boule de billiard », faite de matière brute et homogène, se promenant dans cet espace invisible et acquérant ses propriétés psychiques du seul fait qu’il baignerait dans cet espace invisible. L‘électron-éon enferme dans son sein, à l’intérieur de lui-même, cet espace invisible à propriétés particulières; on peut dire que, par son existence même, il crée cet espace invisible. Il est un véritable «Â univers » minuscule, à l’image de notre grand Univers. Il fait partie, en fait, d’une catégorie d’univers que la physique actuelle nomme les «Â univers-trous »: il y a les univers-trous gravitationnels, qui ont quelques kilomètres de diamètre, ce sont les trous noirs cosmiques; et il y a des univers-trous «Â forts (comprendre à forte courbure), ce sont les leptons chargés, dont l‘électron est un représentant (le seul représentant stable, c’est-à-dire à longue durée de vie).

Et, dans ce coeur des éons, c’est la lumière qui va être porteuse de l’Esprit: dans chaque éon se trouve enfermée cette lumière; mais, parce que cette lumière baigne dans un espace à caractéristiques spontanément organisatrices, c’est-à-dire néguentropiques, elle possède elle-même des qualités bien différentes de la lumière «Â ordinaire », celle qui vient éclairer les objets de notre monde observable. Dans le monde éonique c’est une lumière nouménale, porteuse de psychisme, par constraste avec la lumière phénomènale bien connue dans notre monde observable. Alors que la lumière phénomènale suit les processus naturels de dégradation propres à tous les phénomènes se déroulant dans l’observable, au contraire la lumière nouménale est capable de mémoriser et même mémoriser de façon parfaite, c’est une mémoire qui ne peut pas connaître l’oubli; cette lumière nouménale est également capable d’organiser entre eux tous les éléments mémorisés, pour créer de nouvelles informations, à l’instar de cette propriété de notre Esprit que nous nommons la Réflexion.

Tout cela, l’Esprit humain l’a toujours intuitivement ressenti: combien de fois la «Â tradition » ne nous a-t-elle pas invités à penser que le porteur de l’Esprit était associé avec une certaine forme de lumière? Comment d’ailleurs n’en aurait-il pas été ainsi, puisque au fond de notre Inconscient, c’est cette lumière elle-même qui est porteuse de tout ce que nous sommes capables d‘éprouver? Mais, à chaque époque nous sommes devant la difficulté de chercher à harmoniser ce que nous sentons inconsciemment avec ce que nous savons inconsciemment.Nous avons à emprunter aux symboles utilisés par la Culture humaine de l‘époque et du lieu pour traduire, dans le language conscient exprimant la Connaissance, ce que nous «Â sentons » intuitivement au fond de chaque parcelle de notre chair. C’est ce que nous vivons encore à l‘époque actuelle. Le langage le plus précis de notre culture Terrienne d’aujourd’hui est, sans doute, le langage de la Science et plus particulièrement encore celui de la Physique. Et nous devions nous attendre que la Physique, en progressant, vienne nous dire un jour quelque chose de ce qui lui permettait de s’exprimer, c’est-à-dire notre Esprit; et nous étions aussi en droit de nous attendre que cette Physique ne symbolise pas cet Esprit de manière tellement différente de la façon dont les générations précédentes, à travers leur propre Culture, s‘étaient déjà exprimées à ce sujet… L’Esprit est porté par «Â quelque chose » comme de la lumière, ceci a de tout temps été le pressentiement des «Â profondeurs » , seuls les symboles pour traduire cette «Â vérité » intérieure ont changé; mais l’archétype (pour employer le langage de Carl G. Jung) de la Lumière porteuse d’Esperit est solidement ancré dans notre chair. La musique de l’Esprit ne pourra jamais être que des «Â arrangements » sur le vaste thème de la Lumière. «Â Au commencement était le Verbe… et le Verbe était la véritable lumière », nous dit l’Evangile de saint Jean; et on lit aussi, dans la Genèse: «Â Dieu sépara la Lumière des ténèbres », et la Physique d’aujourd’hui y fait écho par: «Â l’Esprit est séparé de la Matière brute, l’espace invisible où règne la lumière est séparé de l’espace «Â observable » où règnent en fait les ténèbres, puisqu’il s’agit d’un espace privé d’Esprit. » Et on lit encore dans les écritures: «Â Il y eut un homme envoyé de Dieu; son nom est Jean. Il vint pour rendre témoignage à la Lumière. » Newton nous l’avons vu, le grand Newton, souligne l’importance de la lumière nouménale, qu’il distingue de la lumlière ordinaire qu’il nomme phénomènale. Et aujourd’hui, voici que la Physique rallume le flambeau une nouvelle fois, pour nous faire découvrir qu’il existe bien une lumière «Â particulière », enfermée dans un monde invisible, une lumière qui est porteuse de toutes les opérations psychiques de l’Univers.

Jean E. Charon, J’ai VECU quinze milliards d’années.

Notre univers est-il un trou noir ?

On peut dire sans paradoxe que du point de vue superlumineux un être humain «Â en vie » est déjà mort, encore mort, toujours mort.

Curieusement, l’astrophysique, en tentant de décrire notre univers, a été appelée à définir une notion qui nous est devenue assez familière: celle du trou noir. Certaines étoiles peuvent s’effondrer sur elle-mêmes, leur rayon devenant égal à quelques dizaines de kilomètres ou moins. A ce moment, l’espace-temps est tellement creusé par cette masse énorme et hyperdense qu’il se forme une sorte de poche presque fermée sur elle-même et d’où rien ne peut s‘échapper y compris la lumière: c’est un trou noir, ou collapsar.

Un certain nombre de cosmologistes considèrent actuellement que notre univers sous-lumineux est un trou noir. Régis Dutheil a repris cette idée dans le cadre d’une relativité étendue aux vitesses superlumineuses et a montré qu’effectivement notre univers entier ne serait qu’un trou noir ayant un rayon de quelques dizaines de milliards d’années-lumières, mais qu‘à l’extérieur de ce trou noir l’espace-temps serait superlumineux. cet extérieur ne serait pas autre chose que le monde de la conscience qui se confond avec la matière superlumineuse.
De même, Régis Dutheil a montré avec J.-P. Vigier, par des calculs basés sur la relativité générale, que les électrons étaient eux aussi de micro-trous noirs dont l’intérieur est superlumineux et l’extérieur sous-lumineux.

En fait, le monde qui nous entoure, depuis l‘électron (échelle microscopique) jusqu‘à la galaxie (échelle macroscopique) serait double: il y aurait toujours un envers et un endroit du décors. Ce que nous voyons tous les jours est sous-lumineux, mais dès que notre conscience est débarrassée des filtres qui habituellement déforment et occultent une partie de la réalité, elle peut percevoir l’autre partie de l’univers: le monde superlumineux.
Seulement, pour passer de l’un à l’autre il faut franchir une frontière. Cette frontière, c’est le mur de la lumière. Il se trouve à la surface des électrons, séparant l’intérieur superlumineux de l’extérieur sous-lumineux; il est aussi à la frontière de notre univers connu, le séparant de l’extérieur qui est superlumineux.
Dans ces conditions, la cinquième phase s’explique parfaitement. La traversée de la zone obscure correspond au déplacement de la conscience de l’univers sous-lumineux, considéré comme un trou noir, en direction de l’espace-temps superlumineux. Ce déplacement indique la traversée du mur de la lumière. A ce moment, la conscience devient lumineuse, c’est-à-dire qu’au contact du mur de la lumière elle s’imprègne de particules lumineuses, elle devient lumineuse elle-même. Elle ne peut dès lors percevoir l’extérieur que comme obscur puisqu’elle est devenue lumière et ne peut s’observer.

Il en résulterait pour la conscience et le sujet l’impression de traverser une zone d’espace obscur comparable au bout de l’univers.

Dans cette interprétation, la mort peut être considérée comme une catastrophe au sens étymologique, c’est-à-dire un véritable effondrement, un collapsar, un trou noir.

[…]

La mort produit une sorte de renversement. Le corps physique disparaît, dans la mesure où les organes physiques, et particulièrement le cerveau, ne peuvent remplir leur rôle de filtre, et la conscience se retrouve libre de toute entrave. Le grain de poussière que nous sommes passe brutalement de la doublure du vêtement à son endroit en traversant le tissu du vêtement, c’est-à-dire le mur de la lumière.

Une autre comparaison — empruntée à l’astrophysique — est possible; nous l’avons déjà esquissée au chapitre précédent. Notre monde quotidien serait un gigantesque trou noir où ni la lumière ni l’information ne peuvent pénétrer. Notre corps physique, avec son cerveau ets es organes, serait lui aussi un micro-trou noir. L’univers superlumineux et donc la conscience seraient situés à l’extérieur de ce trou noir. La frontière entre le trou noir et le reste de l’univers serait le mur de la lumière.
En exposant le mythe de la Caverne (République, livre IV), Platon a donné avec deux mille cinq cents ans d’avance une illustration saisissante de la situation de notre univers. Régis Dutheil a travaillé avec J.-P. Vigier à un modèle d‘électron rigide: dans ce dernier l’extérieur est sous-lumineux, l’intérieur superlumineux, sa surface est «Â lumineuse ». On voit l’analogie avec la conception dualiste de l’univers de Platon. C’est au niveau de la surface qui sert de frontière et qui peut être assimilée à un mini-mur de la lumière que se produit le passage de l’extérieur de l‘électron (sous-lumineux) à l’intérieur superlumineux. Le calcul montre qu’on peut passer sans discontinuité de la face externe à la face interne, c’est-à-dire du sous-lumineux au superlumineux. Comme tous ces phénomènes se produisent au niveau microscopique, nous ne nous en rendons pas compte dans notre vie quotidienne (nous retoruvons là les curieux paradoxes posés par la mécanique quantique).

[…]

La description de l’univers à laquelle nous aboutissons rejoint celle que donnait Leibnitz au XVII e siècle; la même idée nous guide (nous avons d’ailleurs souligné cette parenté au chapitre 1): chacune des parcelles de l’univers, qu’elle soit animée ou inanimée, dispose d’une part de conscience puisque chaque électron, chaque particule possède une partie superlumineuse, c’est-à-dire une portion d’information et de conscience.
La grande différence qui sépare les deux univers, superlumineux et sous-lumineux, est celle-ci: alors que l’information dans le monde sous-lumineux est à la base de séquences causales (l’information est organisée suivant le principe de causalité liée à l‘écoulement du temps), dans l’univers de la conscience son aboutissement est la création de synchronicités.

Au-delà de la barrière de la lumière et des barrières sémantiques et conceptuelles, il est bien difficile d’aller plus loin que nous ne l’avons fait. Cependant, il est probable que des mystiques de toutes religions ont pu, à certains moments, appréhender cet univers, ce qui se traduisait pour eux par le sentiment de l’ineffable, au-delà de toute description par des mots. Peut-être quelques peintre abstraits du XX e siècle, ou des compositeurs de musiques étranges, ont-ils eux aussi entrevu cet univers au-delà de toute description. Il faut d’ailleurs noter, et ce n’est sans doute pas un hasard, que la peinture abstraite s’est développée en même temps que la relativité et la mécanique quantique.

Pr Régis Dutheil, Brigitte Dutheil, L’homme superlumineux.

Le principe d’antagonisme de Stéphane Lupasco

A tout phénomène ou élément ou événement logique quelconque, et donc au jugement qui le pense, à la proposition qui l’exprime, au signe qui le symbolise : e, par exemple, doit toujours être associé, structuralement et fonctionnellement, un anti-phénomène ou anti-élément ou anti-événement logique, et donc un jugement, une proposition,un signe contradictoire : non-e  ; et de telle sorte que e ou non-e ne peut jamais qu‘être potentialisé par l’actualisation de non-e ou e, mais non pas disparaître afin que soit non-e soit e puisse se suffire à lui-même dans une indépendance et donc une non-contradiction rigoureuse (comme dans toute logique, classique ou autre, qui se fonde sur l’absoluité du principe de non-contradiction).

La physique quantique a révélé que la matière et l‘énergie dont la physique classique donnait une définition non-contradictoire procédaient l’une et l’autre d’une entité événementielle en elle-même contradictoire.

La notion de contradictoire est apparue en effet avec la découverte du quantum de Planck pour la première fois dans l‘étude de la lumière et lorsqu’il fallut expliquer qu’elle pouvait se manifester comme la vibration d’un milieu homogène, et comme un faisceau de particules élémentaires. Bohr exprima l’embarras de la physique par l’illustration suivante :

«Â  Lorsqu’un miroir semi-argenté est placé sur le chemin d’un photon lui offrant deux directions possibles de propagation, le photon peut être enregistré sur l’une et l’une seulement des deux plaques photographiques placées à grande distance dans les deux directions, mais nous pouvons aussi, en remplaçant les plaques photographiques par des miroirs, observer les effets qui mettent en évidence les interférences entre les deux trains d’onde réfléchis. «Â 

Que l‘événement d’origine soit capable de contenir en lui-même les potentialités de ces contraires – continu et discontinu -, mis en évidence dans l’illustration de Bohr l’un par les impacts sur la plaque photographique l’autre par les interférences, alors que la logique exclut de toute connaissance l’idée même de contradictoire, voilà qui posait un problème totalement imprévu aux physiciens.

«Â  Personnellement, commente Bohr, je pense qu’il n’y a qu’une solution : admettre que dans ce domaine de l’expérience, nous avons affaire à des phénomènes individuels et que notre usage des instruments de mesure nous laisse seulement la possibilité de faire un choix entre les différents types de phénomènes complémentaires que nous voulons étudier » [1].

Bohr ajoute : «Â  il importe de façon décisive de reconnaître que d’aussi loin que les phénomènes puissent transcender la portée des explications de la physique classique, la description de tous les résultats d’expérience doit être exprimée en termes classiques » [2].

Selon ces termes classiques, les phénomènes complémentaires ne peuvent être qu’indépendants l’un de l’autre, ce qui ne permet pas d’espérer une connaissance immédiate et totale de l‘événement dont ils proviennent. La difficulté sera donc contournée grâce au principe de complémentarité , c’est-à-dire grâce à l’usage de perspectives, chacune non contradictoire en elle-même, exclusive l’une de l’autre, et qui seront considérées comme complémentaires entre elles.

Certains théoriciens du formalisme quantique ont proposé d’accorder le nom de complémentaire , aux solutions intermédiaires entre les mesures d’un événement donné, c’est-à-dire aux différents degrés d’actualisation de chaque phénomène observé. Ces différents degrés d’actualisation sont appelés par Weizsäcker «Â états coexistants «Â  [3].

Weizsäcker différencie ces états coexistants par ce qu’il appelle leur degré de vérité , c’est-à-dire leur degré de non-contradiction, puisque, selon la logique classique, le critère de vérité est la non-contradiction. Le formalisme quantique permet ainsi de relier à notre logique du tiers exclu, que nous utilisons quotidiennement pour définir les phénomènes observés, la logique du tiers inclus qui doit être reconnue aux événements sur lesquels portent l’observation.

Au Congrès d’Anthropologie et d’Ethnographie de Copenhague de 1938 Bohr fit remarquer que dans l‘étude des communautés et des sociétés humaines l’observateur ne saisit de ce qu’il veut étudier qu’une réponse provoquée par son observation. Bohr proposa donc aux chercheurs en sciences humaines d’avoir aussi recours au principe de complémentarité [4].

Mais à cette époque (1935) un autre principe permettait déjà de relier le contradictoire et le non-contradictoire : le principe d’antagonisme de Stéphane Lupasco [5]. Le principe d’antagonisme de Lupasco conjoint l’ actualisation d’un phénomène à la potentialisation de son contraire. La potentialisation est définie comme une conscience élémentaire ( coscience dira Marc Beigbeder [6] car il ne s’agit que de conscience sans conscience d’elle-même et non pas de ce que nous appelons conscience quand nous parlons de la conscience humaine). Pour imager cette thèse, nous dirons que l’onde actualisée est conjointe à une structure corpusculaire potentialisée, que la structure corpusculaire actualisée est conjointe à une onde potentialisée, et que chacune de ces potentialisations est une conscience élémentaire.

A leur tour, ces actualisations-potentialisations peuvent s’actualiser (actualisation donc de second degré). Si cette actualisation est de même signe que la première – et ainsi de suite – la série des actualisations s’appellera une orthodialectique ; si elle est de signe inverse l’on parlera de paradialectique .

L’orthodialectique de l’homogénéisation est celle de l‘énergie selon la définition de la physique classique dont l’image est la lumière. L’orthodialectique de l’hétérogénéisation, que l’on qualifie aujourd’hui de néguentropie, est celle de la vie, de l’organisation de la matière, atome, molécule, code génétique. L’ hétérogénéisation a pour synonyme la différenciation , terme qui met peut-être mieux en valeur le fait que ce phénomène se constitue initialement d’une opposition entre deux pôles, chacun apparaissant comme particule corrélée à son opposée. Il n’existe donc pas d‘éléments matériels isolés de façon absolue mais des couples ou dyades d‘éléments corrélés (matière et antimatière). Chaque phénomène de différenciation étant lui-même corrélé à son opposé la différenciation devient l’ organisation ou la complexification .

Chacune des deux orthodialectiques tend vers un idéal de non-contradiction. L’une, illustrée par le principe de Pauli [7], engendre une organisation toujours plus complexe, la matière vivante, l’autre dont rend compte le principe d’entropie de Carnot-Clausius, conduit à ce que l’on a appelé la mort de l’univers.

Pour Bohr les phénomènes sont des manifestations d’une réalité dont la conscience peut seulement avoir une traduction grâce à deux lectures partielles complémentaires. Mais ces deux lectures ne sont pas comme les deux faces d’une médaille. Le phénomène mesuré est à chaque fois tout l‘événement. Ou la réalité se manifeste comme onde ou bien elle se manifeste comme corpuscule. Pour Lupasco la réalité actualisée est conjointe à une potentialisation, une conscience élémentaire, dont procèdera la conscience de conscience (la conscience humaine) et celle-ci ne sera donc pas arbitraire.

Que se passe-t-il en effet lorsque les deux actualisation-potentialisations antagonistes sont d’intensité égale, dans un équilibre symétrique, lorsque donc elles s’annulent l’une l’autre rigoureusement ? Le principe de complémentarité de Bohr est inutilisable, de tels états sont inconnaissables puisque l’on ne peut en avoir aucune image, aucune idée, du fait que ne s’actualise aucun phénomène qui puisse être mesuré ? Certes, nous pouvons imaginer pour cet état intermédiaire entre des actualisations-potentialisations antagonistes un espace d’un type nouveau, mais cet espace, parce qu’il est contradictoire, est sans limite, et totalement vide. Personne ne peut rien en dire. Ce vide caractérise les états coexistants de degré de vérité zéro . Costa de Beauregard soutient que puis qu’il n’est pas possible de parler de ce dont on ne peut faire une mesure, le physicien doit se taire devant l’inconnu.

Revenons cependant aux états coexistants symétriques, ni ondes ni corpuscules, ni homogènes ni hétérogènes. Selon Heisenberg : «Â Chaque état contient jusqu‘à un certain point les autres états co-existants… D’autre part, si l’on considère le mot «Â état » comme décrivant une potentialité quelconque plutôt qu’une réalité, l’on pourrait même simplement remplacer le terme «Â état » par le terme «Â potentialité ». Alors, le concept de potentialité co-existante est tout-à-fait raisonnable, puisqu’une potentialité peut comporter tout ou partie d’autres potentialités «Â  [8].

La notion de potentialité est utilisée par Heisenberg dans le sens que lui lui donnait Aristote qui définissait la Matière comme une entité indifférenciée contenant en puissance les contraires tels que l’engendrement et la corruption, la vie et la mort, l’ordre et le désordre. Le moment est venu d’introduire un terme nouveau pour cet état particulier de potentialités co-existantes symétriques. Il s’agit de l‘état T de Lupasco [9] qui signifie ce qui est en soi contradictoire. Ce tiers est le tiers que la logique classique exclut , et que Lupasco appelle le tiers inclus . Cet état T correspond à cette situation particulière où les deux polarités antagonistes d’un événement sont d’intensité égale et s’annulent réciproquement pour donner naissance à une troisième puissance en elle-même contradictoire .

Un tel état, en soi contradictoire , peut être énoncé sous une forme négative, par exemple : ni onde ni corpuscule. Mais comment en parler de façon positive ? On pourrait dire que le tiers inclus est une demi-actualisation de dynamismes antagonistes et à la fois une demi-potentialisation de ces mêmes dynamismes antagonistes. Mais l’on ne saisit pas pour autant son originalité en tant que troisième dynamique entre l‘énergie et la matière.

C’est à présent que la proposition de Lupasco de considérer les potentialisations comme des consciences élémentaires devient féconde car une conscience élémentaire qui se relativise par sa conscience élémentaire antagoniste cesse d‘être une conscience aveugle d’elle-même, mais acquiert une lumière sur elle-même à partir de la conscience qui lui fait face, laquelle acquiert cette même lumière sur elle-même, lumière que l’on peut donc décrire comme une lumière de lumière, une conscience de conscience, une illumination d’elle-même. Mais dès lors, c’est bien de la conscience proprement dite, dont il peut être question, de la conscience de conscience telle que nous la connaissons par notre propre expérience humaine, et que nous appellerons la révélation.

Si l’on envisage cet état T du point de vue de l’actualisation – relativisée par l’actualisation antagoniste – toute réalité cesse que ce soit celle de la matière ou de l‘énergie, mais l‘état intermédiaire, actualisation relativisée par son actualisation antagoniste, ne cesse pas d‘être bien réelle au point qu’elle pourrait être définie du nom de matière primordiale. Le principe d’antagonisme conduit ainsi à la reconnaissance d’une entité sans matière ni énergie, aussi réelle que la réalité, une matière-energie, qui est à la fois une conscience de conscience. Lupasco l’appelle l‘énergie psychique.

Il apparaît donc entre actualisations-potentialisations antagonistes une troisième polarité qui est celle du contradictoire lui-même et qui peut à son tour se déployer comme orthodialectique [10]. Son avènement peut être dit un phénomène d’auto-conscience qui ne connaît pas autre chose que ce avec quoi il est en interaction, c’est-à-dire lui-même.

L‘énergie psychique a bien une spécificité comme conscience de soi, révélation transparente d’elle-même, dénuée de toute connaissance autre que la sensation de sa liberté propre, mais cet dynamique n’en est pas moins relié aux pôles du contradictoire par tous les degrés de vérité de Weizsäcker, de sorte qu’ entre la conscience de soi et les consciences élémentaires peuvent apparaître toutes les consciences de consciences que nous appellerons consciences objectives [11].

Lupasco souligne une analogie de structure entre les états coexistants de la physique quantique et la conscience humaine. S’il n’est pas possible de connaître les états coexistants de degré de vérité zéro, il n’est pas impossible qu’ils ne se connaissent eux-mêmes, qu’ils ne soient consciences de consciences. Telle était déjà l’intuition de la noosphère de Teilhard de Chardin et de son évolution continue de l’ alfa à l’oméga .

Lupasco s’est intéressé au système vivant puis au système psychique et constate immédiatement que le système vivant respecte le principe d’antagonisme polarisé par la différenciation [12], le système psychique le principe d’antagonisme polarisé par le contradictoire [13]. Les neurosciences confirment le caractère contradictoire du système psychique. Le système psychique résulte de la confrontation d’informations antagonistes. Il se construit en effet par complexification d’antagonismes. La neurologie découvre même différentes phases de l’apparition du tiers inclus : lorsque les cellules nerveuses oscillant entre vie et mort fabriquent un équilibre sans perturbations extérieures, elles participent à l‘élaboration de pré-concepts (qui ne sont pas sans rappeler les potentialités co-existantes de Heisenberg). Ces pré-concepts sont en effet neutres, indéterminés, mais lorsque les complexes de neurones mobilisés dans l‘élaboration des pré-concepts interagissent avec le milieu physique ou biologique, leurs pré-concepts sont orientés (comme les événement quantiques sont phénoménalisés par leur interaction avec les instruments de mesure). Le champ du pré-concept se borde de la conscience élémentaire antagoniste de l’actualisation biologique provoquée par l’action du milieu. Cette conscience élémentaire correspond à l’action physique du milieu. Les potentialisations naissantes à l’horizon du préconcept vont devenir d’autant plus non-contradictoires que les actualisations auxquelles ces potentialisations sont conjointes seront davantage non-contradictoires. La réalité du monde est donc connue d’une manière non arbitraire [14]. Des actualisations despotiques provoquent des réactions de plus en plus unilatérales, les réflexes, et les consciences de consciences sont remplacées par des consciences élémentaires, comme celles de l’instinct ou de l’habitude.

Mais au cœur des consciences de consciences, dans l‘état T, quand ne domine ni l’une ni l’autre des forces antagonistes qui s’affrontent, rien ne peut apparaître au bord de la conscience de conscience, et aucune conscience ne peut être être définie. Le concept se réduit à un état coexistant , complexe certes, mais aussi indéterminé que le vide quantique des physiciens. Nous n’en saurions rien si l‘épreuve par elle-même de la conscience ne se traduisait par l’affectivité. Or, nouveau paradoxe qui a dérouté la réflexion sur le contradictoire, l’affectivité se traduit comme un en-soi absolu [15].

Si pour le physicien les états coexistants de degré de vérité zéro sont inconnaissables, ces états se révèlent à eux-mêmes dans l‘énergie psychique comme l’affectivité pure [16]. Le sentiment de soi comme existence en résulte. De façon plus élaborée la conscience de ce sentiment comme sentiment de la conscience en résulte également. L’expérience introspective du doute systématique est en effet le siège d’une certitude ontologique qui se déploie avec d’autant plus de force que le doute se radicalise.

Le principe d’antagonisme propose ainsi une solution originale à la question des relations de l’esprit avec la matière et l‘énergie. L‘énergie psychique est de même nature fondamentale que tout autre phénomène mais elle tend vers le contradictoire tandis que matière et énergie tendent vers le non-contradictoire. Les manifestations de la matière-énergie psychique sont dès lors irréductibles à celles de la matière et de l‘énergie, ce que traduit la contradiction chère aux idéalistes de l’esprit et de la nature, et pourtant elles leur sont apparentées, ce qu’avait saisi intuitivement le matérialisme. La théorie de Lupasco réduit la distance entre la science et l‘éthique. Il n’y a pas de hiatus entre l’esprit scientifique et l’esprit mystique, mais seulement une orientation différente.

Mais le contradictoire peut s’actualiser (actualisation de deuxième degré) et être potentialisé par une actualisation antagoniste ou encore se manifester de façon contradictoire. Nous connaissons bien cette dernière manifestation : la parole .

Dans l’expression de la conscience par un signifiant on peut distinguer deux dynamiques opposées : l’une converge vers l’unité, nous l’appellerons principe ou parole d’union , l’autre va en sens inverse et se manifeste par la différenciation : nous l’appellerons principe ou parole d’opposition .

Si l‘état T demeure en lui-même, il est happé par cette identité, qui est une homogénéisation de deuxième degré. S’il s’actualise par différenciation, il sera happé par une telle différenciation. La parole ici ne signifierait que pour soi : elle deviendrait aussitôt un signal de ce qui met en péril l’existence du moi. Comment le contradictoire peut-il échapper soit à son homogénéisation définitive soit à son hétérogénéisation définitive ? Il faudrait qu’il puisse cesser d‘être lui-même sans pour autant se différencier de lui-même, ou se différencier en demeurant identique à lui-même. Le contradictoire ne peut renaître à moins que la parole n’engendre sa propre structure de réciprocité. Une mise en scène particulièrement dramatique de ce devenir du contradictoire qui meurt dans le signifiant et renaît de la structure du langage dans le jeu des signifiants est celle de l’ Incarnation , de la Mort et de la Résurrection de ce qui se dit soi-même Révélation .

Mais les deux paroles ne peuvent se rencontrer puisqu’elles expriment deux actualisations qui sont par définition exclusives l’une de l’autre. Chacune des deux paroles d’union et d’opposition doit retrouver en elle-même la possibilité de sa relativisation. La chose est immédiatement possible dès lors qu’elle est reproduite par l’autre de façon antagoniste c’est-à-dire pour chacun dans une relation de réciprocité. Par exemple la parole d’opposition sœur-épouse, ou ami-ennemi, peut être redoublée par le vis-à-vis en étant renversée. Ce face à face est par exemple celui des organisations dites dualistes, c’est-à-dire partagées en deux moitiés qui sont à la fois ennemies et amies. Ainsi se reconstitue un espace contradictoire, mais cette-fois ci au niveau du langage et pas seulement du réel. Et c’est donc des états T différents que l’on va découvrir en deuxième génération. Il en sera de même avec la parole d’union. Chacune des deux paroles a donc un avenir distinct pour pouvoir se structurer selon le principe de réciprocité. On peut voir dans ces deux devenirs opposés celui de la pensée scientifique et celui de la pensée religieuse.
Note sur la relativité

En 1905, Einstein a montré que pour chaque point de l’univers considéré comme immobile, tout phénomène obéit à des lois identiques, et que les coordonnées d’espace et de temps de chaque système de référence utilisé sont reliées entre elles par les formules de transformation de Lorentz. Ces relations furent représentées par Minkowski par un continuum à quatre dimensions : l’espace-temps.

Néanmoins, Einstein accepta, la même année, de donner à la découverte de Planck – le quantum contradictoire de la lumière – une portée décisive en le considérant non comme un artifice mathématique mais comme une réalité.

Puisque l’analyse fine de la structure de l‘énergie révélait une discontinuité constitutive du phénomène le plus unifié et homogène que l’on connaissait de la nature, la lumière, Louis de Broglie imagina que toute matière discrète était la manifestation d’une entité qui pouvait également se manifester comme une réalité homogène [17]. Ainsi tout dans l’univers est frappé du sceau du contradictoire. Einstein acceptera bien qu‘à contrecœur que la thèse d’une réalité non-contradictoire de la matière n’ait plus que le caractère d’un programme pour l’esprit scientifique [18].
Note sur l’expression matière

Au XIXème siècle, pour les physicienes la matière s’oppose à l‘énergie comme le discontinu au continu . Einstein formule le principe d‘équivalence. Les notions de matière et énergie sont alors réductibles à deux formes ou phénomènes d’une même nature, les deux matières ou les deux énergies – l’une qui tend vers le continu, l’homogène et la mort, l’autre vers le discontinu, l’hétérogène et la vie.

Les points matériels sont l’expression de l’hétérogénéisation, de la vie, qui implique au minimum une dualité, une opposition, une contradiction entre deux termes irréductibles l’un à l’autre quoique corrélés l’un à l’autre. Aussi n’existe-t-il pas de particule sans antiparticule (électron négatif – électron positif par exemple). Mais comme l’on avait appelé matière la particule observée la première, on appela anti-matière la particule corrélative découverte ensuite.

D’où trois sens pour le mot matière : un sens très général qui signifie tout ce qui peut être objet de mesure , l’autre qui signifie l’ hétérogène , le troisième enfin qui signifie à l’intérieur de l’hétérogène l’ un des deux termes de la différenciation .

Le sens commun donne au mot matière un tout autre sens : l’indifférencié, le contraire de l’organisation et de la vie, soit l’inverse de la définition des physiciens.

Quant à Aristote il lui donnait le sens de la Puissance, c’est-à-dire d’une entité qui contient les contraires de la vie et de la mort sous forme de potentialités, le contradictoire .

Le mot matière aura donc reçu les significations les plus opposées, tantôt de l’homogène tantôt de l’hétérogène, tantôt du contradictoire. On pourrait trouver d’autres définitions du mot matière… Il convient donc de préciser le sens de ce terme d’après son contexte.
Note sur le vide quantique

Lorsque une particule d’anti-matière et sa particule de matière correspondante se rencontrent, elles s’annulent. On parle de dématérialisation . Cette dématérialisation donne naissance à un champ continu, homogène, l‘énergie. L’expérience est réversible (matérialisation de l‘énergie). Il semble donc que l’on puisse passer de façon progressive d’une matière discontinue à une énergie continue, mais la physique quantique a révélé un vide entre l’une et l’autre comme si le passage de l’une à l’autre était un saut par dessus le néant. Matérialisation et dématérialisation de l‘énergie sont disjointes l’une de l’autre par le contradictoire de Lupasco.

Dominique TEMPLE

—
NOTES ET RÉFÉRENCES

[1] Werner Heisenberg, Physique et philosophie , Albin Michel, 1971.
[2] Ibid.
[3] Ibid.
[4] Ibid.
[5] Stéphane Lupasco, Le Principe d’antagonisme et la logique de l‘énergie , Hermann, 1951.
[6] Marc Beigbeder, Contradiction et nouvel entendement , Bordas, 1972.
[7] La Physique classe les entités élémentaires en deux catégories, les bosons , ainsi appelés car ils répondent à la statistique de Bose-Einstein, et les fermions qui répondent à la statistique de Fermi-Dirac. Les bosons peuvent s’associer indifféremment les uns aux autres tandis que les fermions ne peuvent être associés qu‘à la condition de se différencier les uns les autres (principe de Pauli).
[8] Dans : Werner Heisenberg, ouvrage cité.
[9] Stéphane Lupasco Le Principe d’antagonisme , ouvrage cité ; L‘Énergie et la matière psychique , Julliard, 1974.
[10] Lupasco a défini l’actualisation-potentialisation pour les deux pôles du contradictoire mais n’a pas proposé de terme précis pour la manifestation du contradictoire comme tel. D’autre part, il a toujours considéré l’affectivité comme extérieure à la conscience de conscience et n’a pas accepté l’idée qu’elle puisse être la conscience s‘éprouvant elle-même.
[11] Le principe d’antagonisme implique que l’actualisation de l‘énergie et de la matière ne peuvent atteindre une non-contradiction absolue. Dans toute matière ou énergie il demeure donc du contradictoire qui la relie à l‘énergie psychique, mais réciproquement, le contradictoire ne peut s’affranchir des dynamismes qui lui donnent naissance par leur confrontation. Il n’y a pas d’esprit sans matière et sans énergie.
[12] Stéphane Lupasco, L‘Énergie et la matière vivante , Julliard, 1974.
[13] Stéphane Lupasco, L’Expérience microphysique et la pensée humaine, PUF, 1941.
[14] Jean-Pierre Changeux, Remarques sur la complexité du système nerveux et sur son ontogenèse . Dans : Information et communication – Séminaires interdisciplinaires au Collège de France , Maloine, Paris, 1983.
[15] A cause de ce caractère absolu , Lupasco situait l’affectivité hors de la conscience de conscience, et n’acceptait pas l’idée que l’illumination de la conscience puisse se fondre en une pure affectivité, le passage lui paraissant impliquer une solution de continuité irréductible entre deux natures.
[16] Les techniques des bouddhistes ont pour objet de créer cet état de vide de toutes consciences objectives mais qui se traduit par une affectivité parfaite.
[17] Louis de Broglie, Matière et lumière , Albin Michel, 1937.
[18] Albert Einstein, Introduction à «Â  Louis de Broglie physicien et penseur «Â , Albin Michel, 1959.

Bulletin Interactif du Centre International de Recherches et Études transdisciplinaires n° 13 – Mai 1998

Centre International de Recherches et Études Transdisciplinaires

Conscience et matière superlumineuse

On voit apparaître l’analogie avec les théories de David Bohm et Pribram, puisque ce que nous appelons réalité ne serait qu’un ensemble d’hologrammes quadridimensionnels, les systèmes de coordonnées spatio-temporelles étant imposées par les caractéristiques mêmes de l’ordinateur cortical.

Tous les éléments précédemment cités nous amènent à formuler l’hypothèse suivante: la conscience, déjà décrite dans les chapitres précédents comme une substance matérielle, est formée de matière superlumineuse, d’un champs de matière tachyonique, de particules superlumineuses situées au-delà du mur de la lumière et associées à un espace-temps dont les propriétés spatio-temporelles sont radicalement différentes de celles que nous connaissons.

D’après cette hypothèse, chaque être vivant porterait en son sein, une partie, une parcelle de l’univers superlumineux qui, avec son champ de matière superlumineuse aux propriétés inhérentes, représenterait la conscience véritable.

Dans ces conditions, il n’est pas surprenant qu’on n’ait pas réussi jusqu‘à présent à localiser physiquement un champ de particules superlumineuses. Nous avons vu en effet que beaucoup de théoriciens de la mécanique quantique admettent que la «Â conscience » intervient dans toute mesure expériementale. Les mesures auxquelles ils font allusion concernent seulement des particules sous-lumineuses. Or, ce que nous appelons conscience dans notre monde habituel n’est qu’une faible partie de la conscience matière totale superlumineuse. Comment dans ces conditions cette conscience partielle pourrait-elle étudier et localiser la conscience totale? Il est difficile de concevoir qu’une partie infime d’un «Â objet » puisse appréhender cet objet dans sa totalité.

Nous nous plaçons alors dans la perspective déjà avancée par Eccles, selon laquelle le cerveau n’est qu’une sorte de machine, un détecteur, qu’un «Â esprit » pourrait faire fonctionner. Cela suppose bien entendu des interactions physiques entre le cerveau, détecteur appartenant à l’univers sous-lumineux, et la conscience, matière superlumineuse qui doit envoyer des signaux physiques au cortex, autrement dit de l’information. Comme le dit Eccles, de tels signaux n’ont pu être détectés par les appareils de la physique. Il suppose que, s’il en est ainsi, c’est parce que ces signaux sont très faibles et que nos instruments physiques ne sont pas encore capables de les percevoir. Nous aborderons par la suite ce problème essentiel lié à celui des récepteurs.
La propriété capitale de cette conscience matière superlumineuse serait d‘être en quelque sorte de l’information et de la signification à l‘état pur. Nous avons vu que l’univers superlumineux serait régi par un principe d’information/signification, la causalité n’ayant plus de valeur à cette échelle.

En outre, l’espace-temps superlumineux ayant des propriétés complètement diffrérentes du nôtre, le temps «Â vécu » par la conscience superlumineuse totale ne s‘écoule plus, c’est un temps spatial. Il y a instantanéité absolue, les concepts de présent/passé/futur n’ont plus de sens.La notion de durée liée à l‘écoulement du temps n’existe plus.

Ces propriétés nous semblent avoir un pouvoir interprétatif supérieur à celles proposées dans les modèles Firsoff et Dobbs. Firsoff supposait que «Â l’esprit » était formé de particules appelées mindons qui ressemblaient beaucoup aux neutrinos. De telles particules pouraient interagir avec un seul neurone cortical. Evidemment, nous pourrions adapter ce modèle à nos idées en supposant qu’il existe des neutrinos superlumineux, traversant brusquement le mur de la lumière en devenant antineutrinos sous-lumineux portant l’information et interagissant avec les neurones corticaux. Mais l’interaction d’ondes d’espace, en accord avec les idées de Pribram, nous semble plus probable comme nous le montrerons par la suite. Quant au modèle de Dobbs, basé uniquement sur la mécanique quantique, il fait intervenir des psitrons se déplaçant plus vite que la lumière, mais dans un temps à deux dimensions: l’une actualisée, l’autre virtuelle ou probabilisée. En fait, il n’y a pas de contradiction avec notre interprétation. C’est une autre manière, plus classique, d’expliquer les phénomènes. A partir de nos idées il serait aisé de déduire une explication suivant le mode de Dobbs.

La conscience totale posssède donc deux propriétés essentielles: elle est information pure et instantanéité. Le problème qui découle de ces propriétés est le suivant: pourquoi la totalité des informations contenues dans la conscience superlumineuse n’est-elle pas détectée par le cortex? S’il en était ainsi, l’univers sous-lumineux tel que nous le vivons n’existerait pas. Une condition nécessaire à cette existence est la présence de filtres qui ne laissent passer qu’une toute petite partie de cette information suivant des séquences causales, de manière à entraîner cette sensation d‘écoulement du temps. L’importance de ce problème des filtres avait déjà été soulevée par Bergson. Il est d’ailleurs étroitement lié à celui des récepteurs biologiques.

Dans ces conditions, la ligne d’univers représentant dans l’espace-temps sous-lumineux la vie d’un être humain de sa naissance à sa mort, sous forme de séquences causales d‘événements, aurait son correspondant exact dans l’univers superlumineux sous la forme d’une ligne d’univers superlumineuse homologue. Sur cette ligne d’univers superlumineuse, où le temps est spatial et où la durée et l‘écoulement du temps sont remplacés par une instantanéité permanente, on retrouverait ces événements. Mais ils se présenteraient sous forme d’informations au sens habituel du mot. C’est sans doute le principe d’information/signification dont nous avons parlé qui présiderait à leur assemblage. On peut supposer que ces informations sont distribuées suivant une loi d’affinités et de signification. L’ensemble formerait à proprement parler la conscience totale qui serait infiniment plus riche que les consciences parcellaires que chaque être vivant abrite en son sein.

Il ne faut pas oublier que, bien qu’existant dans un temps immobile de notre point de vue, il y a une constante évolution de cette conscience matière superlumineuse, vers des états d’information et de signification de plus en plus grands. Finalement, une partie de ces informations serait projetée en quelque sorte dans l’univers sous-lumineux sous forme de séuqences causales perçues comme les événements d’une vie. C’est là, précisément, que réside le rôle de filtre du cortex qui laisserait passer seulement les informations nécessaires à la perception du présent et d’un temps qui s‘écoule. A ce moment, le cortex récepteur aurait un rôle d’ordinateur qui construirait entièrement notre univers sous-lumineux.

On voit apparaître l’analogie avec les théories de David Bohm et Pribram, puisque ce que nous appelons réalité ne serait qu’un ensemble d’hologrammes quadridimensionnels, les systèmes de coordonnées spatio-temporelles étant imposées par les caractéristiques mêmes de l’ordinateur cortical.

Il est important de préciser cette concordance car nous donnons une interprétation à la théorie holographique de Pribram. En effet, dans son approche, Pribram fait appel à ce qu’il nomme des fréquence spatiales de nature non temporelle. Ces fréquences spatiales sont loin d‘être une vue de l’esprit. Leur réception par le cortex a été mise en évidence expériementalement. Au cours de ces expériences, les fréquences spatiales sont émises par des grilles composées de lignes, de largeur et d’espacement variables.
Initialement, ce furent David Hubel et Torsten Wiesel qui découvrirent que de nombreuses cellules visuelles du cortex sont accordées spécifiquement à certaines orientations. Une dizaine d’années plus tard, plusieurs laboratoires utilisèrent les grilles émettrices et mirent en évidence une réceptivité sélective des fréquences spatiales pour certaines aires du cortex.

Pour Pribram le cortex fonctionnerait essentiellement en opérant des transformations de Fourier qui, à partir de ces fréquences spatiales, construirait des hologrammes constituant pour nous la «Â réalité ». Mais le cortex – et ceci est lié aux transformations de Fourier – aurait deux modes de fonctionnement. L’un, local et spatio-temporel avec un système de coordonnées arbitraires conduisant à une perception causale de la réalité: c’est le mode de fonctionnement habituel. L’autre, qui serait obtenu par une transformation rapide de Fourier, conduirait à une perception non locale avec établissement de corrélations. C’est ce mode non local et non causal, beaucoup plus rare, qui nous ferait percevoir les synchronicités et et qui pourrait être expérimenté dans les extases mystiques.

L’existence de ces deux modes de perception vient corroborer les deux voies d’approche de réalité que nous avons décrites au chapitre 2: la voie scientifique rationnelle correspondrait au mode local et causal, la voie non rationnelle au mode non local et non causal. En mécanique quantique, c’est le mode non local qui interviendrait lorsqu’on établit des corrélations par exemple non locales entre deux photons conduisant aux idées de non-séparabilité.
Nous pouvons dès lors donner une interprétations aux fréquences spatiales de Pribram en les généralisant. D’après la mécanique ondulatoire, à toute particule superlumineuse est associée une onde dit de phase qui a une vitesse inférieure à celle de la lumière. Au terme de ce que nous venons d‘énoncer, cette onde et sa fréquence pourraient dans certaines conditions être de nature purement spatiale et non temporelle. En fait, elles seraient temporelles, mais constituées de ce temps de nature spatiale qui appartient à l’univers superlumineux. De telles ondes auraient la capacité d’interagir avec certaines cellules du cortex. Comme elles transporteraient de l’information issue du champs de matière superlumineux de la conscience, c’est à partir de ces fréquences superlumineuses que le cortex élaborerait les hologrammes sous-lumineux constituant notre perception habituelle de la réalité. Mais dans certains cas, ces ondes seraient converties par la transformation de Fourier, non pas en hologrammes, mais en événements synchronistiques ou corrélés de caractère non local et non causal, faisant penser à la non séparabilité.

Ce deuxième mode de fonctionnement serait beaucoup plus rare puisque les filtres corticaux agiraient précisément de telle manière que, d’une façon générale, ce soit la construction holographique, causale et spatio-temporelle, qui soit majoritaire. Dans certaines circonstances, soit psychophysiologiques soit psychologiques, ou dans certains dispotifs expérimentaux quantiques, c’est le deuxième mode qui serait mis en évidence, en s’introduisant en quelque sorte subrepticement à travers les filtres corticaux.

Nous avons vu dans le chapitre précédent que selon Pribram le cortex, effectuant une transformation de Fourier, construit à partir d’un schème d’interférences les hologrammes constitutant ce que nous appelons le réel: en quelque sorte de la même manière qu’un rayon laser qui balaye une plaque photographique portant un schème d’interférences reconstitue l’image d’un objet à trois dimensions.

Nous pouvons, selon nous, donner une interprétation à cette construction holographique. La mécanique ondulatoire associe à toute particule sous-lumineuse une onde superlumineuse qui n’est qu’un aspect complémentaire de la réalité. Or, le calcul montre que ce qu’on observe en réalité est une sorte d’interférence de deux de ces ondes de fréquence très voisine.

C’est cette interférence, ou ce «Â battement », qui se déplace moins vite que la lumière, et transporte l‘énergie. Il s’agit d’une sorte de schème d’interférences, c’est le cerveau du physicien qui appréhendait cette interférence comme une entité localisée ou particule sous-lumineuse. En fait, dans le langage de Pribram, c’est un hologramme. il est clair qu’un objet à notre échelle serait lui aussi un hologramme puisque formé d’un très grand nombre de ces interférences.

Ce serait évidemment l’inverse dans l’espace-temps superlumineux de la conscience. Ce sont des ondes sous-lumineuses qui seraient associées à chaque particule superlumineuse: ces dernières s’identifieraient à des interférences ou battements de ces ondes sous-lumineuses. Ces interférences se déplaceraient plus vite que la lumière. Mais comme le temps et l’espace n’ont plus les mêmes propriétés dans cet univers superlumineux, l’aspect onde ou particule ne serait plus contradictoire. La complémentarité deviendrait identité, l’observateur superlumineux «Â voyant », en même temps et sans contradiction, une particule superlumineuse être à la fois corpuscule et onde, c’est-à-dire quelque chose qui est à la fois non local et local. Autrement dit, les deux modes de perception que nous avons définis pour le cerveau (le mode local spatio-temporel et le mode non local) fonctionneraient en même temps. Il n’y aurait plus de séparation de ces deux modes de fonctionnement, ce qui explique que cette conscience totale superlumineuse bénéficierait d’une qualité d’information beaucoup plus grande que nos parcelles de conscience sous-lumineuse où le mode spatio-temporel fonctionne la plupart du temps.
Dans cette hypothèse, l’univers superlumineux identifié à celui de la conscience totale serait vraiment l’univers fondamental; notre univers sous-lumineux n’en serait qu’une projection holographique, un reflet sous-lumineux très amoindi en informations, soumis à la dégradation entropique liée au temps qui s‘écoule.

D’après la structure même que nous avons exposée, on voit que les deux univers seraient étroitement intriqués l’un dans l’autre.

Pr Régis Dutheil, Brigitte Dutheil, L’homme superlumineux.

La synchronicité et le fonctionnement du cerveau

Et pour finir, l’ordre spatio-temporel, l’ordre non-local, et tous les autres ordres possibles sont-ils entièrement une construction de nos sens et de nos cerveaux, où reflètent-ils une cosmologie universelle à laquelle nos sens et nos cerveaux participent?

Les transformations de Fourier permettent donc d’effectuer dans un premier temps l’analyse en facteurs, et les mêmes transformations permettent de reconstituer l’opération inverse. Dennis Gabor a appliqué cette caractéristique du théorème de Fourier à l’invention de l’hologramme. L’hologramme enrichit les transformations de Fourier d’un modèle, qui peut ensuite être reconstruit par application du processus inverse.

L’hologramme offre une organisation très singulière et très intéressante. David Bohm s’y réfère comme à un «Â ordre impliqué », parce qu’il conçoit que toute forme et tout modèle, y compris l’espace et le temps, sont involués (reployés) en lui. Aussi bien, l’hologramme représente un ordre de distribution. Ses caractéristiques non-locales sont précisément celles que pose le problème de la physique quantique. Nous pourrions dire que l’ordre impliqué de la physique «Â entraîne » un processus de Fourier dans le cerveau du physicien. (Précisons cependant que «Â impose », au lieu de «Â entraîne », serait une meilleure description de la relation qui s‘établit dans ce cas.)
Le parallèle avec l’exemple du coq et du soleil peut ainsi être complété: il existe bien un mécanisme dans le cerveau qui peut être considéré comme un ordre qui se trouverait derrière les corrélations observées de la physique quantique. Cet ordre réside dans les transformations de Fourier appliquées à un modèle spatial. De même qu’une compréhension du processus d’entraînement des rythmes circadiens rend possible la compréhension des liens causals impliqués dans la corrélation entre le coq qui chante et le soleil qui se lève, de même une compréhension du processus de Fourier dans le cerveau rend possible la compréhension des liens causal impliqués dans les corrélations qui s’imposent dans la physique quantique.

Résumons ce que nous avons vu! Le chant du coq précède le lever du soleil. D’ordinaire, on a coutume de considérer que la causalité opère dans le même sens que la flèche du temps. Mais cela est incohérent dans le cas du coq et du soleil; aussi avons-nous recherché une explication et l’avons-nous trouvée dans le déroulement des rythmes circadiens innés du coq. En physique quantique, des problèmes similaires surgissent en ce qui concerne la causalité immédiate: l’effet paraît précéder la cause, ou bien il n’y a absolument aucune base permettant de comprendre la corrélation observée. C’est également incohérent, aussi nous a-t-il fallu chercher une explication. Suivant la démarche selon laquelle c’est l’intrusion de l’observateur dans le phénomène d’observation qui peut expliquer le problème, nous avons étudié le cerveau de l’observateur et découvert le processus de fourier; processus par lequel des modèles sont transformés en un ordre assimilable à celui de l’holographie et à partir duquel ils peuvent être reconstitués.

Il faut donc maintenant se demander si le fait que le processus de Fourier de déroulerait réellement dans le cerveau a un pouvoir explicatif en physique.

La réponse à cette question dépend du pouvoir qu’ont le théorème de Fourier et toutes les procédures mathématiques qui en découlent, de transformer les choses, en partant du monde de l’espace/temps ordianaire où règne la causalité immédiate, en un ordre involué, distribué et non-local, dans lequel des corrélations, et seulement elles, existent. Ce pouvoir de transformation est utilisé en traitement informatique et en sciences statistiques sous la formes des «Â transformations rapides de fourier », chaque fois – et à quelque niveau que ce soit – que des corrélations doivent être calculées. Il est aussi à la base des procédures CAT et PET qui forment des images en corrélant, dans ce domaine de transformation, les résultats d’enregistrements individuels restreints.

Une fois que la nature non-locale du domaine de transformation est clairement reconnue, sa présence peut aider la compréhension à de nombreux niveaux. Là où cette ubiquité est peut-être la mieux mise en valeur, c’est dans la formule de base d’Einstein, concernant la relation entre énergie et masse: E=m.c 2. En physique quantique, E, l‘énergie, est mesurée en termes de moment; m, est la masse des gravitons apparaissant en certains endroits; c, est la vitesse de la lumière déterminant la flèche du temps. (A la vitesse de la lumière, le temps reste immobile.) Ainsi, le côté droit de l‘équation d’Einstein représente l’espace/temps tel que nous avons coutume de le percevoir. Quant au côté gauche, il représente le moment, c’est-à-dire le potentiel d‘énergie disponible à tout instant. E est par conséquent un terme non localisé qui, en fait, est relié à l’espace/temps à travers un transformation de Fourier!

Le cerveau, comme nous l’avons vu plus haut, a la capacité d’opérer à la fois selon un mode spatio-temporel et un mode non-local. Alors pourquoi, en physique quantique, sommes-nous astreints à ne pouvoir observer que l’un ou l’autre? Pourquoi ne pouvons-nous pas observer simultanément le moment et la localisation? La réponse à cette question tient à la complémentarité, inhérente aux techniques et à l’appareillage utilisés pour faire les observations. Précisons cependant que, en suivant la conception de Bohr, la complémentarité est une propriété fondamentale à la fois de la «Â chose » observée et de l’observateur, et non pas seulement un artefact introduit par la procédure choisise. Le théorème de Fourier exprime cette complémentarité de base.

Reconnaître l’existence d’un domaine non-local de transformation, dans lequel des corrélations et seulement elles peuvent avoir lieu, replace les observations qui sont subsumées sous le concept de synchronicité dans un cadre général où l’on trouve d’autres observations de non-localité. La synchronicité paraît bizarre parce que nos sens et nos cerveaux sont programmés pour rechercher des causalités immédiates, quand bien même seules des corrélations seraient observées. Dans le cas de la synchronicité, comme dans le cas du coq et du soleil et celui de la physique quantique, des relations causales ne pourraient être introduites que par référence à l’observateur qui se tient derrière les observations. Le cerveau de l’observateur est doté des capacités de transformation qui permettent d‘établir un ordre non-local aussi bien qu’un ordre spatio-temporel d‘événements.

Il y a qu’il reste plusieurs problèmes difficiles. Pourquoi l’ordre spatio-temporel est-il beaucoup plus facile à atteindre que l’ordre non-causal? Est-ce que les ordres complémentaires de l’espace/temps et de la non-localité sont exhaustifs, ou bien existe-t-il d’autres ordres qui n’ont pas encore été découverts? (Cette question pose le problème des mondes multiples possibles.) Par quels mécanismes les expériences mystiques, qui manifestent souvent des propriétés de non-localité, se trouvent-elles déclenchées? Et pour finir, l’ordre spatio-temporel, l’ordre non-local, et tous les autres ordres possibles sont-ils entièrement une construction de nos sens et de nos cerveaux, où reflètent-ils une cosmologie universelle à laquelle nos sens et nos cerveaux participent? (Cette question est la même que celle qui demande si les mathématiques sont une invention ou une découverte.)

Il ressort de ce que nous avons vu dans ces quelques pages qu’un aspect important de la recherche, en vue de répondre à ces questions, consiste à en savoir plus sur le cerveau qui pose justement ces questions. De nos jours, une fois encore, il semble essentiel de joindre les efforts réalisés dans les sciences de la vie avec ceux qui sont menés dans le domaine des sciences physiques. Il y a à peine un siècle, une psychophysique sensorielle et quantitative a été élaborée à partir d’une telle convergence. Aujourd’hui, le besoin se fait sentir de développer une science fondée sur l‘étude du cerveau, qui puisse embrasser à la fois la physique moderne et la nature spirituelle de l‘être humain.

Karl Pribram, La synchronicité et le fonctionnement du cerveau, dans La synchronicité, l‘âme et la sciences.