· 

Dialogue sur le vivant et l'ontologie diamatérialiste

Guillaume suing, georges gastaud

Nous publions conjointement avec le site Initiative Communiste un dialogue entre Guillaume Suing, agrégé de SVT, auteur de Evolution, la preuve par Marx (Delga) et Georges Gastaud, agrégé de philosophie, auteur de Lumières communes, traité de philosophie générale à la lumière du matérialisme dialectique (cinq tomes, Delga) et de Sur la dialectique de la nature (Etincelles, 2004). Ce dialogue se déroule en quatre étapes :

- Le manifeste scientifique de G. Suing déjà paru en décembre sur le site Germinal, dirigé par G. Suing.

- En avant-première, le commentaire qu’en donne G. Gastaud à l’occasion de la prochaine réédition de Lumières communes prévue par Delga pour le printemps 2019 dans le fil du Tome III consacré à l’approche dia-matérialiste des maths, des sciences cosmo-physiques, de la chimie et des sciences du vivant.

- Du "sens" et de la direction en biologie de l'évolution, de G. Suing

- Un texte de G. Gastaud à paraître dans la nouvelle édition de Lumières communes, à propos du nouvel élan pris par l’ontologie dia-matérialiste dans les sciences cosmo-physiques en opposition déclarée au néopositivisme dominant

 

 

 

 

 

 

Tour Tatline. Projet de monument pour le siège de l'Internationale Communiste à Moscou, 1919. Ce monument représentait symboliquement le développement spiralaire de la matière selon la vision matérialiste dialectique.

De l'épigénétique... à l’épidarwinisme 

Par Guillaume Suing

 

Couronnée de la gloire d’avoir prouvé l’existence des déterminants héréditaires de nos caractères, la génétique a répété pendant un siècle qu’un mur infranchissable séparait ces gènes du milieu extérieur. Sous sa forme « moderne » d’après-guerre, la « génétique moléculaire » posa que l’ADN ne pouvait « évoluer » qu’aléatoirement, indépendamment du milieu, et qu’en aucun cas les mutations affectant les cellules sexuelles ne pouvaient être déterminées par leur environnement somatique (le reste du corps, soumis aux aléas du milieu dans lequel il se construit et se renouvelle). Moins encore les protéines actives déterminées par les gènes ne peuvent elles-mêmes déterminer ces derniers. C’est ce qu’on a appelé le « dogme central de la génétique moléculaire ».  

Sous cette forme, il s’adaptait bien au concept darwinien de sélection naturelle, puisque celle-ci ne triait les individus, variables par définition (mutations continuelles au hasard) qu’a posteriori, une fois les mutations survenues. Seules les formes mutantes dotées d’un « avantage sélectif » pouvaient ainsi devenir progressivement majoritaires dans la population et, à terme, changer l’espèce elle-même. Cet heureux mariage entre génétique et darwinisme –Darwin ignorait l’existence des gènes et de leurs mutations- devint pendant tout le vingtième siècle un paradigme (quasiment) jamais remis en cause, sous le nom de néodarwinisme, ou « théorie synthétique de l’évolution ». Toute la recherche en biologie ne visait plus qu’à « compléter » cette théorie, tout en l’agrémentant d’éventuelles exceptions ou circonstances spécifiques, confirmant bien entendu la règle... 

Mais il faut dire que cette « barrière » infranchissable a dès l’origine posé problème, tant elle apparaissait aux yeux des biologistes de « terrain », aux yeux des « naturalistes », comme fortement teinté d’idéalisme : Les êtres vivants se résument-ils à des « golems » exprimant le « Verbe » écrit en eux par une divine Providence ? 

Heureusement, le « hasard » des mutations modérait cette possible dérive théorique, à tel point que l’on finit, faute d’une vision matérialiste conséquente, par sacraliser, voire par diviniser ce hasard, catégorie indépassable, se suffisant à elle-même, seul rempart conceptuel (mais creux) contre le « finalisme » théologique (préformation du vivant, direction extérieurement guidée de son évolution). 

Parallèlement au développement de la génétique des populations, l’une de ses branches la plus strictement soumises au dogme néo-darwinien, la génétique moléculaire, poursuivit ses recherches, ne cessant de découvrir des mécanismes de plus en plus perfectionnés, de plus en plus complexes, à l’origine de l’expression des gènes. Ces derniers perdaient, au fil des ans, leur définition première : une crise profonde mit à mal la triple unicité du gène, faisant tomber l’une après l’autre « l’unité de fonction » du gène (une seule fonction par gène), son « unité de recombinaison » (le gène est un quantum d’hérédité des caractères), et son « unité de mutation » (le gène est la seule information à pouvoir « varier »). 

La crise du néodarwinisme, à la fin du vingtième siècle, opposait ce dogme, maintenu, de la triple unicité du gène, aux récentes découvertes, de plus en plus gênantes, liées aux modalités extrêmement complexes de leurs variations et de leur expression, pourtant issues d’un hasard totalement aveugle et non dirigé. 

 

  LA RÉVOLUTION ÉPIGÉNÉTIQUE 

 

  Coup de théâtre : à l’aube du vingt-et-unième siècle, on découvrit que parmi ces modalités complexes, certaines n’avaient d’autre vocation que « d’auto-diriger » les variations, non pas vers une finalité préméditée (idéalisme), mais plutôt vers l’échappement opportun de situations environnementales périlleuses pour l’individu voire pour la population toute entière. La plus déroutante fut celle d’un mécanisme capable de « stimuler » sélectivement l’hyper-mutabilité de zones d’ADN utiles en cas de stress environnemental, puis de « sauvegarder » (d’oublier d’oublier) les variations locales avantageuses dans les générations ultérieures (de façon réversible). 

Quand une population est menacée d’un stress qui la détruirait à très court terme, des variations salvatrices issues de l’acquis peuvent alors, surtout chez les espèces « fixées » incapables de fuir, devenir héréditaires beaucoup plus rapidement que ne le permettraient les seules mutations aléatoires « dans » les gènes, beaucoup trop rares. On parla pour désigner ces mécanismes encadrant la trop lente évolution endogène des gènes « d’épigénétique ». 

Après un siècle pendant lequel la génétique s’appuyait exclusivement sur le dogme d’une impossibilité de l’hérédité de l’acquis, celle-ci devint un fait scientifique, démontré non par des dissidents de la génétique classique, si chargée d’idéalisme comme nous l’avons vu, mais par les généticiens eux-mêmes. 

Bien sur il ne s’agit pas d’une loi générale de la génétique, mais d’une possibilité, parmi d’autres, mûrie par le jeu de sélections naturelles de variations aléatoires. Cette possibilité retenue devint, objectivement, un « contre-feu » au mécanisme darwinien de l’évolution, passif et originel. Le couple hasard-sélection avait mis en place des stratégies évolutives lui échappant désormais, jusqu’à un certain point. Voilà une forme assez évidente de « négation de la négation » dans le jargon de la dialectique. 

Nous sommes maintenant face à un dilemme. La génétique a engendré par ses seules forces, la négation des dogmes qui l’ont fondée à l’origine. Mais cette négation n’est pas une négation absolue, puisque les modalités d’ « hérédité de l’acquis » ne sont et ne peuvent être qu’une conséquence historiquement déterminée du jeu de la sélection darwinienne sur fond de variations effectivement aléatoires. En d’autres termes il a fallu que ce « dogme » soit vrai pour qu’il opère et mette en place les mécanismes le dépassant. Nous ne sommes pas revenus au pré-darwinisme d’un Lamarck, comme certains généticiens actuels voudraient l’affirmer un peu légèrement. Au contraire, il faut admettre comme réel le mécanisme qui finit par se nier, jusqu’à un certain point, pour que cette négation elle-même puisse être vérifiée. 

La pilule épigénétique n’est toutefois pas avalée en biologie, loin de là. Les modalités décrites ne sont encore que « concédées », à la marge. Même si partout on parle de « révolution épigénétique » ces dernières années, tant les conséquences sur notre quotidien vont être nombreuses et prolifiques. Mais sur le plan théorique le hiatus persiste, et on a du mal à considérer enfin la « loi » darwinienne, comme on a toujours considéré les « lois » en physique ou en chimie, c'est-à-dire dans un « cadre » d’application toujours relativisé par son élargissement continuel. 

 

  C’EST BIEN LA LOI DARWINIENNE ELLE-MÊME QUI ÉVOLUE DÉSORMAIS

 

  Si le couple darwinien variation-sélection est bien une « loi » motrice de l’évolution des espèces, il faut alors reconnaître et identifier dans les méandres complexes de l’histoire naturelle (et non dans un espace temps intangible éternellement vrai) les formes de l’évolution même de cette loi jusqu’aujourd’hui. Il ne s’agit aucunement de « contredire » Darwin, d’être anti-darwinien, puisque certains enthousiasmes néo-lamarckiens commencent à se manifester ; il s’agit tout au contraire de proposer les contours d’un « épidarwinisme ». 

Toute loi naturelle s’inscrit dans un univers matériel en développement permanent, et ce mouvement évolue à la fois quantitativement et qualitativement : ici la perpétuation des espèces vivantes non pas seulement par leur reproduction mais au-delà, par leurs transformations radicales. 

Ainsi les « lois » elles-mêmes sont vouées à mettre en place un cadre nouveau où elles s’exerceront sous d’autres formes, de la même façon que la gravité newtonienne à notre échelle a émergé de lois gravitationnelles quantiques ayant évolué avec les particules depuis les premiers instants du big-bang. 

Georges W. Hegel puis Karl Marx et Friedrich Engels parlaient de « Aufhebung » pour qualifier un dépassement dialectique comme négation « et » continuation de l’ancien. Ici, les modalités d’une certaine « hérédité de l’acquis » plus efficace dans certaines circonstances que la seule évolution passive et lente des gènes, sont à la fois une négation des mutations aléatoires simples et une stratégie mise en place par le jeu d’une variation - sélection ayant plus ou moins dompté ces mutations (les accélérant et les concentrant sur des zones ciblées du génome). 

C’est une « négation » parce que les mutations sont « contrôlées » dans des zones ciblées pour survivre, et dans leur vitesse. Mais c’est aussi une « continuation » parce que les mutations restent, au fond, aléatoires et non-dirigées. La « nécessité » naît en effet, en particulier pour les mutations, d’un élargissement statistique des effets d’une variabilité aléatoire. 

 

  L’ÉVOLUTION EST UNE FORME D’HÉRÉDITÉ BIEN CURIEUSE 

 

  Mais il faut aller plus loin : Il y a une raison pour laquelle la loi darwinienne est elle-même susceptible de muter. Et cette raison réside dans les propriétés intrinsèques du vivant, de ce qui fait du vivant une partie de la matière universelle distincte du reste, tout en conservant ses propriétés fondamentales, c'est-à-dire en particulier son mouvement perpétuel et endogène, autrement dit son entropie. 

Le couple variation-sélection est ici l’effet d’une propriété plus fondamentale du vivant : l’hérédité. Et c’est peut être là où l’ «  évolution des espèces » semble le plus difficile à mettre en évidence, dans l’étude de l’hérédité (littéralement reproduction du « même »), que se tient sans doute la raison profonde des transformations d’espèces (négation de l’hérédité). 

Le couple variation-sélection n’est pas un « moteur aléatoire » de l’évolution, mais précisément la flèche allant de l’aléatoire au nécessaire et du simple au complexe. L’existence de cette flèche (qu’on appelle « néguentropie » en thermodynamique) peut donner l’illusion d’une direction prédéfinie, alors qu’elle ne dirige le vivant que dans le sens de sa seule perpétuation dans un milieu qui l’en empêche. Dans ce cadre, conservation (hérédité) et transformation (darwinisme) sont de ce fait dirigés dans le même sens. L’un se manifeste par un élan direct (et vain), l’autre par un « Aufhebung » permettant une perpétuation plus efficace (mais fausse) à long terme… sous un forme transformée, mieux adaptée au milieu changeant. L’évolution n’est pas en ce sens un sous-produit passif du vivant mais son principe même. 

Tout est parti d’une double faculté pour certaines molécules organiques (les acides nucléiques), tout à fait contingente, de s’auto-répliquer (si présence dans le milieu de ses briques élémentaires libres) et de catalyser la formation de ses briques moléculaires constitutives. 

C’est sans doute cette rencontre contingente dans le même type de molécule de deux facultés chimiques indépendantes qui fut la source de toute l’histoire naturelle : Car avec les générations moléculaires et l’inéluctable entropie du milieu de vie, deux alternatives s’offraient à ce type de système chimique : la disparition pure et simple… et à la marge la sélection des innovations perfectionnant cette faculté d’autoréplication. L’un de ces destins n’est plus détectable aujourd’hui par définition, tandis que l’autre, initialement marginal, n’a cessé de prolonger son mouvement, par rétroaction positive, vers plus de perfectionnement dans la seule direction qui ne soit pas « téléologique » : l’émancipation vis-à-vis du milieu (sans cesse reformulée puisqu’impossible) à l’origine d’une continuelle inadaptation. Ainsi toute l’histoire naturelle n’est plus celle d’un « hasard » sacralisé, mais au contraire celle d’une complexité croissante, celle des mécanismes sans cesse perfectionnés capables d’échapper aux variations meurtrières de l’environnement, partant d’une faculté extrêmement fragile au départ d’autoréplication simple des premières molécules organiques dans la « soupe primitive » pré-biotique. 

On a déjà largement étudié la notion d’infini sous bien des facettes : imbrication d’infinis en logique mathématique, comportement de la matière dans l’infiniment grand ou l’infiniment petit en physique. La biologie peut quant à elle participer à l’étude de l’infiniment complexe… La biologie peut quant à elle devenir la science de l’infiniment complexe, mais il faut voir cet infiniment complexe comme une direction, une tendance générale, admettant même parfois des régressions, voire des impasses, dans un environnement universel de tendance totalement contradictoire, puisqu’accroissant sans cesse son désordre. 

 

L’ÉVOLUTION DARWINIENNE TEND À SE FREINER SANS JAMAIS LE POUVOIR ABSOLUMENT 

 

  Ce que la génétique nous enseigne peut être vu comme une succession de stratégies cellulaires contre les mutations et les changements. Et ces stratégies n’ont cessé de se perfectionner au fil des âges, jusqu’à innover même dans l’anticipation des changements environnementaux « contre » voire « mieux » que les mutations spontanées elles-mêmes… 

Aux origines du vivant et avant la formation de véritables cellules fermées, le « monde à ARN » se composait de polymères à une seule chaîne de nucléotides capables à la fois d’activités catalytiques (comme des enzymes) et de réplications à l’identique par complémentarité naturelle des nucléotides constitutifs. Mais une première révolution « conservatrice » à partagé ce monde en deux : l’activité catalytique fut celui de protéines déterminées par les acides nucléiques (gènes) tandis que les acides nucléiques archivés furent des ADN à deux chaînes fermées [1] (voir la figure en fin d’article). Les ARN résistèrent à l’interface de ces deux mondes (en tant que copies exportables des gènes d’ADN) mais perdirent leurs attributions premières (double faculté de contenir l’information pour la réplication et de catalyser les éléments permettant chimiquement l’expression de cette information). Un tel partage fut une sorte de garantie pour les acides nucléiques, désormais ADN, de mieux se conserver, de mieux protéger son intégrité des aléas extérieurs. 

Dès lors, même la modalité dite « semi-conservative » de la réplication de l’ADN [2] à la base des générations successives de cellules, est une « solution » moléculaire à la nécessité d’éviter au maximum les « fautes de frappe » (mutations ou erreurs de copie aléatoires), puisque chaque brin d’ADN se construit sur un brin existant, et reste fermé sur lui. 

Comme des erreurs de copie ne peuvent être « absolument » évitées dans l’entropie universelle, le vivant a élaboré des contre-tendances qui vont diminuer au maximum la portée de telles mutations, qui vont les raréfier à l’extrême. 

Ainsi le code génétique qui attribue à chaque groupe de nucléotides (quatre types possibles A, T, C, G) sur l’ADN un acide aminé sur les protéines déterminées se lit trois par trois sur l’ADN, ce qui a pour conséquence collatérale d’attribuer souvent le même acide aminé à trois ou quatre triplets de nucléotides différents (64 possibilités de triplets pour seulement vingt types d’acides aminés à coder). On réduit ainsi considérablement le nombre de mutations qui vont se traduire par un changement réel dans la protéine active, du fait de la redondance du code génétique [3]. Encore un moyen de limiter la portée des mutations au niveau de nos caractéristiques héréditaires, sans pouvoir les éviter absolument. 

Mieux encore : on a mis en évidence au niveau des cellules, même primitives, des systèmes extrêmement élaborés de correction des zones de l’ADN endommagées par le milieu. Les systèmes enzymatiques SOS et SRM agissent précisément pour protéger l’ADN des usures et des potentielles mutations (ce sont par exemple ces systèmes qui protègent nos cellules cutanées des effets mutagènes et cancérigènes des UV) [4]. Au niveau cellulaire, des dispositions similaires chez les pluricellulaires stimulent la destruction sélective des cellules mutées dans un tissu sain (apoptose). 

Une nouvelle révolution, dans les premiers temps de l’histoire du vivant, alors que les êtres pluricellulaires n’existaient pas encore, a consisté à « emballer » le génome dans un noyau au sein de la cellule [5], avec une artillerie moléculaire extrêmement lourde pour permettre en parallèle à la cellule de continuer à se diviser malgré cet emballage spécifique de l’ADN. Les mécanismes extrêmement compliqués de la division conforme (mitose) sont liés au coût matériel et énergétique d’une protection de l’ADN dans une enveloppe hermétique (d’où les gènes ne sortent jamais et n’exportent que des copies dans le cytoplasme) appelé noyau. C’est l’émergence des eucaryotes à partir des procaryotes (dont l’ADN flotte directement dans le cytoplasme cellulaire). 

Le fait que le vivant soit historiquement passé de modalités asexuées à des modalités sexuées pour la reproduction complique considérablement la reproduction, mais en faisant en sorte qu’une mutation soit tue par la présence d’un deuxième exemplaire du gène concerné : Quand une version (paternelle ou maternelle) est défectueuse suite à une mutation, l’autre version, surnuméraire et statistiquement plus fonctionnelle, compense la perte. Cette diploïdie [6] repose sur des mécanismes complexes, qui notamment activent ou répriment les exemplaires (allèles) de chaque gène selon la position dans le corps ou le tissu et les circonstances environnementales et locales. 

Mais les complications vont naturellement bien plus loin, puisque lors de la production de copies des gènes exportées hors du noyau des cellules pour être traduites en protéines, ces copies subissent des redécoupages et recollages alternatifs, lors desquels bien des segments informationnels (introns) sont purement et simplement éliminés. Ainsi, si les erreurs de copie affectent des introns (partie non négligeable du génome), ils n’auront aucun impact non plus sur les caractéristiques exprimées [7]. 

Bien d’autres modalités sont responsables de remaniements au sein du génome sous l’influence directe de l’environnement : duplication de gènes, polyploïdie, translocations, remaniement de segments d’ADN au sein des gènes ou même entre les gènes, capacité d’un gène à produire des protéines totalement différentes selon les circonstances, etc. L’ensemble de ces mécanismes suppose une multitude d’enzymes à l’activité extrêmement raffinée, donc un coût matériel et énergétique reflétant l’importance des enjeux de la conservation / perpétuation. 

Un des effets particulièrement éclairant parmi les dernières grandes révolutions moléculaires du vivant, est celui de la fameuse séparation soma – germen, de ce qu’on pourrait appeler la « lutte contre l’hérédité de l’acquis » (puisque celui-ci peut être handicapant d’une génération à l’autre si le milieu change). 

Chez les êtres pluricellulaires, seules certaines cellules, minoritaires et particulièrement bien protégées, emballées, isolées du reste du corps, sont vouées à la reproduction (cellules sexuelles). Toutes les autres, les cellules somatiques, peuvent se développer en étroite liaison avec le milieu changeant (immunité, régulations diverses et homéothermie, etc.). Les premiers néodarwiniens, parmi lesquels le célèbre Weismann (qui coupait les queues de souris sur plusieurs générations pour « démontrer » très naïvement l’impossibilité d’une hérédité de l’acquis), y ont vu une barrière étanche, métaphysique, essentialiste, entre ce qui est conservé (les gènes des cellules sexuelles) et le milieu dans lesquels celui-ci s’exprime (les cellules somatiques exprimant ces mêmes gènes). Or on s’aperçoit aujourd’hui qu’une telle barrière n’est pas « passive » mais bien « construite », elle aussi, par toute une série de molécules chargées de « réinitialiser » le génome des cellules sexuelles, pour qu’il reparte de zéro et n’hérite pas des modifications et usures trop circonstancielles des génomes parentaux [8]. 

Mais si cette barrière est bien fondée sur des mécanismes complexes, ces derniers se sont construit progressivement, et peuvent donc être ultérieurement surmontés, rétroactivement, si un milieu trop dangereux ou trop imprévisible l’impose. C’est la raison d’être des recherches épigénétiques actuelles : Il y a bien une « barrière » soma-germen, une séparation inné – acquis, mais il s’agit d’un résultat et non d’une cause de l’autoconservation (impossible) du vivant, comme une modalité supplémentaire apte à protéger davantage le génome des aléas extérieurs. De plus, cette barrière construite peut elle-même se franchir par l’émergence de mécanismes encore plus complexes, capables d’oublier d’oublier lors de la réinitialisation des gamètes, les zones qui en changeant se sont révélées utiles dans le nouvel environnement. Telles sont les bases d’une hérédité de l’acquis « anti-lamarckienne », épigénétique. 

 

SON EFFET RÉVERSIF EST L’ABOUTISSEMENT LOGIQUE DE L’ÉVOLUTION DES ESPÈCES 

 

On voit bien à quel point l’histoire du vivant est celle d’une « lutte pour la survie », d’une lutte pour son émancipation d’un milieu non seulement changeant mais aussi imprévisible, qui retourne les dégâts occasionnés par ce milieu (mutations à plusieurs échelles) contre les contraintes qu’il impose. C’est ainsi qu’on observe par exemple chez les animaux vertébrés pour ne citer qu’eux, une émancipation progressive du milieu d’origine aquatique jusqu’aux formes sociales ayant pour vocation ultime la production puis la maîtrise du milieu de vie lui-même pour ralentir ses changements, son imprévisibilité et améliorer du même coup les capacités d’autoconservation… sans le pouvoir jamais absolument. Il n’y a donc en définitive d’opposition entre changement et stabilité qu’en apparence dans la nature. 

Les mécanismes darwiniens ont produit toutes les modalités visant à diminuer leurs contraintes, surtout en terme de rapidité et d’imprédictibilité. C’est ainsi, et seulement ainsi, qu’on peut parler d’épidarwinisme, dont certaines modalités ont été identifiées par Patrick Tort, chez l’homme, comme un « effet réversif » de la sélection naturelle parvenue à son stade ultime. Il faut aujourd’hui travailler à découvrir les principes de cet effet réversif, non plus simplement culturels mais encore d’ordre biologique, chez la grande majorité des êtres vivants de la biosphère actuelle, telle qu’elle fut façonnée par la longue histoire naturelle. 


Commentaire de Georges Gastaud

En vue de la réédition de Lumières Communes (Tome III, chapitre 11)

 

J’étais sur le point de transmettre aux éditions Delga ma relecture du présent livre aux fins de réédition de Lumières communes quand G. Suing a bien voulu me signaler la parution toute récente de son dernier article sur le site Germinallejournal.org. Etant donné le caractère synthétique, voire programmatique de cet « article-manifeste », et aussi son intérêt pour le matérialisme dialectique et pour la conception du monde rationaliste, je prends ici le risque de proposer in extremis cette note de lecture rapide et rédigée à chaud (4 janvier 2019). 

L’auteur expose d’abord les raisons pour lesquelles il faut, selon lui, sortir du « néo-darwinisme » pur et dur qui a tenté durant des décennies d’associer de manière éclectique et quelque peu extérieure la théorie darwinienne de l’évolution à la conception mendélienne de la génétique couronnée par la révolution biomoléculaire. Ce qui fit longtemps figure de modèle standard de la biologie générale repose notamment sur la séparation étanche du germen et du soma (un héritage de Weissmann qui inspire bien des exposés pédagogiques de Jean Rostand), l’idée étant que des mutations géniques survenues au hasard finissent par être sélectionnées par le milieu naturel (et par la lutte pour la vie), donnant peu à peu naissance à une nouvelle espèce : tel serait à jamais le jeu, cher à Jacques Monod, l’un des papes du néo-darwinisme avec François Jacob, du « hasard » et de la « nécessité ». Or les bases théoriques et empiriques de ce néo-darwinisme ont notamment été sapées par la déconstruction scientifique progressive du tout-génétique, ou plutôt, du tout-génique, et plus encore par l’émergence de l’épigénétique, qui ouvrent toutes deux, la première au négatif, en faisant « place nette » de la dictature absolue du gène et de l’ADN, la seconde au positif, en soulignant les rétroactions du milieu sur le pilotage même de la transmission du patrimoine héréditaire, des pistes neuves sur la dialectique de l’inné et de l’acquis : à tel point que certains biologistes contemporains sont tentés par une sorte de « retour à Lamarck », c’est-à-dire à l’idée d’une régulation finalisée de la reproduction et de la spéciation à partir des exigences adaptatives imposées par le milieu. Ajoutons que, sur le plan philosophico-idéologique, le matérialisme apparemment « pur et dur » du néo-darwinisme standard, sa fascination ostentatoire pour le déterminisme sec et pour le hasard aveugle, son exclusion générale de toute espèce de finalité (sous couvert de légitime exclusion du vitalisme et du providentialisme) auront paradoxalement fait le jeu du créationnisme ou de sa version allégée, l’ainsi-dit « Dessein intelligent » : car s’il n’existe vraiment rien, dans les organismes vivants et dans les mécanismes régissant leur hérédité, pour « aider un peu » le hasard (si l’on peut dire), pour orienter tant bien que mal la (trans-)spéciation et faire émerger une tendance objective (parmi d’autres) du vivant à la bio-complexification, on peine parfois à croire que la stupéfiante complexité actuelle du vivant, avec son incroyable empilement de rétroactions et de régulations de régulations, ait pu se constituer en un temps somme toute si bref : quelques centaines de millions d’années pour ne parler que  des pluricellulaires. La thèse de G. Suing, qui n’est pas plus tenté que nous par une réhabilitation théorique intégrale de Lyssenko, et moins encore, faut-il le dire, par un ralliement spiritualiste aux élucubrations fidéistes sur le « Dessein intelligent » (c’est-à-dire sur une Finalité extérieure planifiant le processus évolutif : en un mot, Dieu), n’est pas du tout qu’il faudrait revenir purement et simplement à Jean-Baptiste Lamarck en laissant tomber l’apport matérialiste majeur de Darwin :

« … nous ne sommes pas revenus au pré-darwinisme de Lamarck, comme certains généticiens actuels voudraient l’affirmer. Au contraire, il faut admettre comme vrai le mécanisme qui finit par se nier, jusqu’à un certain point, pour que cette négation elle-même puisse être vraie »,

… écrit Suing. Autrement dit, pour que, à partir des procédés aveugles mis à jour par Darwin et ensuite, surtout, par Oparine, des zones subordonnées, si j’ose dire, de « fonctionnement lamarckiens » (une régulation, immanente au vivant et intériorisée par lui, de l’évolution, tantôt traquant sans pitié les innovations géniques, tantôt les suscitant et les accélérant dans certaines conditions d’extrême stress d’origine environnementale menaçant toute une population) toujours surdéterminées par les fonctionnements proprement darwiniens, puissent se faire jour. La référence de Suing à la pensée dialectique et dia-matérialiste, est en effet explicite :

« G. Hegel, puis K. Marx et F. Engels parlaient de Aufhebung pour qualifier un dépassement dialectique comme négation et continuation de l’ancien. Ici les modalités d’une certaine « hérédité de l’acquis », plus efficaces dans certaines circonstances que la seule évolution passive et lente des gènes, sont à la fois une négation des mutations aléatoires simples et une stratégie mise en place par le jeu d’une variation-sélection ayant plus ou moins dompté ces mutations (les accélérant et les concentrant sur des zones ciblées du génome). C’est une négation parce que les mutations sont ‘contrôlées’ dans des zones ciblées pour survivre, et dans leur vitesse. Mais c’est aussi une continuation parce que les mutations restent au fond aléatoires et non-dirigées. La ‘nécessité’ naît en effet, en particulier pour les mutations, d’un élargissement statistique des effets d’une variabilité aléatoire » (p. 3). 

En particulier, la séparation germen/soma, à l’égard de laquelle G. Suing ne pratique aucun déni de réalité, est évolutivement construite (comme on dirait « historiquement construite » dans le champ social), elle résulte de l’évolution elle-même et apparaît comme une protection induite de la transmission sécurisée du même, à l’instar d’autres dispositifs veillant sur l’hérédité qui n’existaient pas ou qui ne dominaient pas dans les formes premières de vie (par ex. la séparation et la spécialisation de l’ADN et de l’ARN, l’isolement de l’ADN dans le noyau, dont ne sortent que des « copies », l’invention de la reproduction sexuée…). En effet, 

« … un des effets particulièrement éclairants parmi les dernières grandes révolutions moléculaires du vivant est celui de la fameuse séparation soma/germen, de ce qu’on pourrait appeler la ‘lutte contre l’hérédité de l’acquis’ (puisque celui-ci, peut-être handicapant d’une génération à l’autre si le milieu change) »  … 

Bref, la séparation (relativement) étanche de l’acquis et de l’inné est elle-même… un acquis évolutif, que G. Suing qualifie malicieusement de « révolution conservatrice » ; si bien que l’on s’aperçoit aujourd’hui, ajoute-t-il aussitôt, qu’…

« … une telle barrière n’est pas ‘passive’ mais bien ‘construite’, elle aussi, par toute une série de molécules chargées de ‘réinitialiser’ le génome des cellules sexuelles pour qu’il reparte de zéro et qu’il n’hérite pas des modifications et des usures circonstancielles des génomes parasitaires ». 

Du fait qu’elle résulte de l’évolution et qu’elle n’est pas inhérente à l’on ne sait quelle « essence éternelle du vivant » (contrairement à ce que pouvait laisser croire l’approche fixiste, mécaniste et métaphysique à la fois du vivant héritée de Weissmann), cette séparation germen/soma qui, peut alors s’avérer poreuse dans certaines conditions. En effet, précise Suing, 

« … si cette barrière est bien fondée sur des mécanismes complexes, ces derniers se sont construits progressivement et peuvent donc être ultérieurement surmontés, rétroactivement, si un milieu trop dangereux ou trop imprévisible l’impose. C’est la raison d’être des recherches épi-génétiques actuelles : il y a bien une ‘barrière’ germen/soma, une séparation inné/acquis, mais il s’agit d’un résultat et non d’une cause de l’autoconservation (impossible) du vivant, comme une modalité supplémentaire apte à protéger davantage le génome des aléas extérieurs. De plus, cette barrière construite peut elle-même se franchir par l’émergence de mécanismes encore plus complexes, capables d’oublier d’oublier lors de la réinitialisation des gamètes, les zones qui, en changeant, se sont révélées utiles dans le nouvel environnement. Telles sont les bases d’une hérédité de l’acquis ‘anti-lamarckienne’ épigénétique ». 

Dans le courant du présent chapitre de Lumières communes, notamment dans le Nota bene intitulé l’Idée régulatrice d’une intériorisation génétique de la sélection naturelle, nous avions suggéré – de manière tout-à-fait indépendante des recherches théorico-scientifiques de G. Suing mais en parfaite convergence objective avec son souci philosophique rationaliste -, que, nécessairement, au fil des millions d’années d’évolution biologique et de « sélection naturelle », les organismes dédiés par leur structure même à l’autoconservation, avaient dû de quelque façon tenter d’apprivoiser les mécanismes sélectifs, les intérioriser, faire en sorte que le vivant n’ait pas à chaque crise environnementale aiguë, à réinventer totalement ce qui pourrait lui permettre de s’en sortir, car évidemment, la crise environnementale est souvent de l’ordre du très court terme (à l’échelle de la vie des espèces), alors que l’apparition de mutations opportunes permettant de « survivre en changeant » et de « rester soi en devenant un peu différent », peut prendre un temps trop long au regard des nécessités. Bien évidemment, au titre même de la sélection naturelle, les organismes qui auront inventé des mécanismes de régulation de leur propre évolution auront alors obtenu un avantage sélectif majeur par rapport à ceux qui n’auraient pas, bien entendu à l’aveugle, mise en place de tels mécanismes. Qui peuvent être à la fois des stabilisateurs, comme nous venons de le voir à propos de la sexualité et de sa diploïdie caractéristique, ou des accélérateurs de diversité, donc d’évolutions épi-génétiques (voire géniques) potentielles puisque la reproduction sexuée élimine le clonage naturel exclusif propre à nombre d’unicellulaires. Nous pensions alors à ce que signalait le biologiste étatsunien Stephen J. Gould, par ex. dans son livre Quand les poules avaient des dents, à savoir que l’évolution de l’espèce, comme l’embryogénèse en atteste avec éclat et en accéléré, conserve la mémoire des évolutions et des bifurcations passées et les « garde », prudemment allais-je dire, en réserve de la République… Si bien que nous avions surtout en tête les accélérateurs possibles d’évolution, G. Suing ayant le grand mérite dans son « article-manifeste » d’insister sur les deux aspects dialectiquement liés : il existe bien des évolutions stabilisatrices, mais il peut aussi exister des mécanismes stables d’évolution disposés dans le vivant lui-même, jouant en accéléré en lui la sélection naturelle, suscitant le hasard et multipliant les possibilités statistiques de tirer le bon numéro, celui qui permettra à la population menacée d’extermination d’engendrer sans trop tarder une sous-population résistante, éventuellement dotée de propriétés permettant à l’espèce de passer le cap en se modifiant. 

Pour finir d’examiner l’article-manifeste de G. Suing, saluons trois propositions dialectiques qui convergent objectivement avec ce qui est constamment affirmé dans ce chapitre sur fond de dialectique de l’autoconservation et de la transformation en tant qu’elle est productrice de sens :

L’autoconservation évolutive sur fond de milieu instable, ou du moins imprévisible, ne fait qu’un avec la nécessité de l’évolution. Brandissant à ce propos l’heureuse expression dialectique de « révolution conservatrice », G. Suing explique en substance que l’évolution n’est pas l’autre de l’autoconservation, qu’il ne s’agit plus de juxtaposer la première à la seconde comme s’y employait gauchement et trop sommairement le néo-darwinisme : dialectiquement parlant, l’évolution serait plutôt, s’il est permis d’user d’un vocabulaire aristotélicien, l’autoconservation en acte. Encore s’agit-il d’une dialectique subtile, non binaire, que l’histoire du vivant  ne cesse, semble-t-il, de ramifier et de complexifier de manière luxuriante : par ex., la tendance déjà constituée à l’autoreproduction, qui est constitutive du vivant comme tel, pousse dialectiquement à la transformation sur fond de finalité interne (survivre !), mais cette évolution trie et favorise à son tour l’émergence de mécanismes structurellement conservateurs, anti-mutation et contre-évolutifs qui tendent à figer (relativement) les espèces constituées (enclosure du noyau, reproduction sexuée, séparation ADN/ARN, barrières à l’hybridation…), tandis qu’émergeraient aussi, de manière corrective en quelque sorte, des contre-tendances à la conservation « bête et méchante » relançant la possibilité d’une évolution partiellement régulée et d’une sélection naturelle davantage intériorisée par l’organisme : leur fonction vitale serait alors de permettre, en cas de danger massif menaçant d’extermination une population biotique donnée (et se traduisant par un stress important frappant chaque individu), la possibilité d’évolutions futures dans un jeu indéfiniment répliqué et rebondissant de l’identité et de l’altération (la négation de la négation de la négation est en droit infinie, y compris qualitativement). Telle serait notamment la régulation du, ou plutôt, par le hasard, qu’il ne s’agit pas de réduire vainement, mais bien d’utiliser comme tel, ainsi que le révèle la mise à jour de mécanismes permettant l’épigenèse. Telle serait peut-être aussi l’existence de mécanismes permettant, selon les cas, l’expression ou la mise en veilleuse de tel ou tel segment du matériel génique. Peut-être faut-il compléter cette panoplie, comme nous nous y risquions dans la première édition de Lumières communes (2016) en rappelant que nombre de vivants gardent trace de leur passé spécifique lointain, que, par ex., « l’embryogenèse reproduit la phylogenèse (vieux principe énoncé par Haeckel) », que, plus globalement, l’historicité est consubstantielle au vivant (Oparine), que – soit dit de manière un peu provocatrice ! – les poules (chères à S. Gould !) gardent toujours une « dent » en réserve pour le cas où il deviendrait vital, pour la survie des gallinacés caquetants, que leur espèce retrouvât un jour tout son « mordant » préhistorique et néo-reptilien ? Bref, pas de révolution conservatrice sans que ne finissent par se dessiner les conditions d’une éventuelle conservation révolutionnaire… 

Certes l’évolution ressemble plus à un buisson, voire à un maquis (d’aucuns diraient à un réseau…), qu’à un arbre poussant uniformément et linéairement élevant vers la lumière ses rameaux surmontés par Sa Majesté Homo Sapiens. Mais la légitime substitution épistémologique du « buissonnement » (ou du « réseautage ») à l’ancienne image de l’ « arborescence » évolutive ne devrait pas occulter l’émergence d’un sens (aussi précaire balbutiant que l’on voudra) de l’évolution biologique : il n’est certes pas « préétabli », encore moins préconçu en vue de l’on ne sait quel Dessein intelligent, et il émerge du vivant bien plus qu’il ne « l’appelle » à l’existence du haut du firmament, à la manière du Dieu d’Aristote servant de Premier Moteur, cette fin de toutes les fins qui tire vers elle toute la Nature. Mais ce sens n’en existe pas moins car, comme l’écrit encore G. Suing, 

« Toute l’histoire naturelle n’est plus celle d’un ‘hasard’ sacralisé, mais au contraire celle d’une complexité croissante, celle des mécanismes sans cesse perfectionnés capables d’échapper aux variations meurtrières de l’environnement, partant d’une faculté extrêmement fragile au départ d’autoréplication simple des premières molécules organiques dans une soupe primitive pré-biotique »… 

… ou, comme l’écrit encore plus explicitement l’auteur, qui, en parlant de « flèche » de l’évolution, use sciemment du symbole conventionnel de tous les processus orientés, voire finalisés, 

« Le couple variation-sélection est ici l’effet d’une propriété plus fondamentale du vivant : l’hérédité. Et c’est peut être là où « l’évolution des espèces » semble le plus difficile à mettre en évidence, dans l’étude de l’hérédité (littéralement reproduction du « même »), que se tient sans doute la raison profonde des transformations d’espèces (négation de l’hérédité). Le couple variation-sélection n’est pas un « moteur aléatoire » de l’évolution, mais précisément la flèche allant de l’aléatoire au nécessaire et du simple au complexe. L’existence de cette flèche (qu’on appelle « néguentropie » en thermodynamique) peut donner l’illusion d’une direction prédéfinie, alors qu’elle ne dirige le vivant que dans le sens de sa seule perpétuation dans un milieu qui l’en empêche. Dans ce cadre, conservation (hérédité) et transformation (darwinisme) sont de ce fait dirigés dans le même sens. L’un se manifeste par un élan direct (et vain), l’autre par une « Aufhebung » permettant une perpétuation plus efficace (mais fausse) à long terme… sous un forme transformée, mieux adaptée au milieu changeant. L’évolution n’est pas en ce sens un sous-produit passif du vivant mais son principe même (souligné par G.G.) ». 

Bref, pour se maintenir coûte que coûte (« néguentropie ») et tenir efficacement et provisoirement tête à la destructive entropie ambiante, le vivant doit changer ; au cours de ce changement, il stabilise ses avancées (c’est une évolution de l’évolution, un changement conservateur), quelquefois il les déjoue et les déborde lui-même au moyen d’une véritable négation de la négation (mécanismes stables de l’épigenèse par ex.) ; au fil des ères, il construit ainsi pas à pas les conditions qui lui permettront d’être de moins en moins dépendant des variations catastrophiques du milieu et de ses aléas meurtriers. Mais pour ce faire, remarquons-le, le vivant est contraint de se complexifier, c’est-à-dire au fond d’intérioriser les variations du milieu de manière à les jouer en lui, à les anticiper, à les maîtriser en lui-même et pour lui-même autant que faire se peut, sans que jamais ne soit éliminé pour autant le couple dominant hasard/nécessité mis en évidence par Darwin et par ses successeurs. 

Comme nous l’avons fait dans le présent livre en suivant la « ligne » dia-matérialiste dessinée par Marx, Engels et Oparine (dans ce chapitre, et plus encore dans le chapitre suivant qui traitera de la dialectique nature/culture), il faut mettre en rapport ce sens émergent de l’évolution, en tant qu’il va dans le sens d’un affranchissement croissant du vivant à l’égard du milieu via la complexification du vivant et l’apparition d’un autocontrôle intériorisé du processus évolutif, et d’autre part la dialectique émergente propre à l’hominisation, c’est-à-dire à l’émergence d’un être essentiellement historique. Suing évoque en effet à la fin de son article… 

« … les formes sociales ayant pour vocation la production, puis la maîtrise du milieu de vie lui-même pour ralentir ses changements, son imprévisibilité et améliorer du même coup les capacités d’autoconservation » (p. 7). 

Et en effet, l’hominisation n’est-elle pas, dans son essence, ce que, flirtant avec le vocabulaire hégélien, nous nommerions une ruse de l’évolution par laquelle les hominidés et autres hominines, s’émancipant de l’évolution biologique au moyen de l’évolution biologique elle-même (notamment du redressement vertébral et de ses suites, bipédie, libération de la main, développement crânien…), entrent, bien involontairement et « tout naturellement » d’abord, dans le domaine technico-historico-culturel, déplaçant le moteur de leur changement spécifique « du courant phylétique vers le champ technique », pour parler comme le génial préhistorien français que fut André Leroi-Gourhan. En effet,  écriront génialement Marx et Engels (Idéologie allemande, 1846), les hommes... 

« … produisent leurs moyens d’existence, pas en avant qui est, qui résulte de leur organisation corporelle elle-même. En produisant leurs moyens d’existence, les hommes produisent indirectement leur vie matérielle ».

Car biologiquement parlant, qu’est donc la conscience humaine sinon un moyen, non directement biologique certes, mais biologiquement déterminé et biologiquement très (trop ?) efficace d’anticiper, de « jouer », de se représenter par avance sur la « scène » mentale/verbale  les conditions extérieures: plus seulement, donc, dans l’espace biologique déjà très intériorisé du métabolisme, par les transformations duquel la cellule traite, déjà très indirectement parfois, ses rapports avec l’extérieur, mais dans celui, bien plus libre, maniable et « partageable », du reflet psychique socialisé : la pensée adossée au langage. Ainsi Homo sapiens peut-il anticiper, contrôler et mettre à profit les propriétés objectives du réel tout en retournant comme un gant le processus d’intériorisation propre au vivant en leur symétrique : le partage avec autrui, puis la projection organisée de cette intériorité mentale sur l’extériorité physique de manière à produire une œuvre au moyen du travail. 

Comme on voit, les convergences entre l’analyse de G. Suing et la nôtre sont manifestes ; rien d’étonnant à cela puisque, chacun de nous, à partir de sa place propre (scientifique et/ou philosophique), mais avec un souci égal des Lumières communes et de la rationalité dialectique, s’efforce de penser le réel « sans addition étrangère » (ainsi Engels définit-il le matérialisme) et en tenant ferme le fil rouge de l’« auto-développement de la Chose même » (Hegel). 

Nous ferons toutefois deux réserves épistémologiques et ontologiques  à propos de l’article-manifeste examiné. Elles sont mineures eu égard au sujet traité par G. Suing, c’est-à-dire l’approche matérialiste du vivant, mais ont toute leur importance quand il s’agit de la conception générale du monde   :

G. Suing nous semble opposer trop sommairement le non-sens de la matière inerte, dont il réduit l’automouvement à l’entropie, donc à la production de désordre, au sens qui serait purement propre au vivant (et bien entendu, à l’homme en tant que cas particulier du vivant). Du coup son exposé est quelquefois teinté d’une sorte de pessimisme ontologique puisque les efforts du vivant – donc de l’homme – pour maintenir sa structure et combattre le passage destructif du temps, sont constamment déclarés « vains ». Or, cette vision du monde physico-chimique est selon nous datée. Engels avait déjà dessiné dans sa Dialectique de la nature le récit potentiellement scientifique d’une matière en mouvement produisant des formes de plus en plus complexe. Partant de bases théologiques mais rapidement conduit à affronter le Vatican parce qu’il était résolument évolutionniste, le biologiste, paléontologue et préhistorien Pierre Teilhard de Chardin a montré lui aussi que les conceptions pessimistes de l’univers issues d’une interprétation unilatérale de la thermodynamique (notamment le second principe de Carnot) cédaient chaque jour du terrain devant le constat que l’univers matériel antérieur à la vie produit des structures de plus en plus complexes : particules, noyaux, atomes, molécules, macromolécules… cellules et organismes, sans parler de l’homme dans l’hyper-complexe cerveau duquel le mouvement de l’univers finit par se réfléchir peu ou prou par le truchement de l’art, de la science et de la philosophie matérialiste. Ou, si l’on préfère prendre choses sous l’angle cosmogonique plutôt que sous celui de la microphysique, on assiste à un déroulement, pour ne pas dire à un « grand récit » (histoire de provoquer la doxa pseudo-critique actuelle) qui voit se dérouler un scénario qui nous mène d’une « soupe » ultra-chaude de champs et de particules émergeant du big-bang (et de ce qui l’a matériellement rendu possible), vers des « fluctuations » de température et de masses qui produiront les futurs superamas, amas de galaxies, galaxies gravitant autour de leurs trous noirs respectifs, étoiles, supernovae et nébuleuses, planètes orbitant dans la « zone habitable » de leur soleil, production au cœur des étoiles de molécules hyper-complexes et là encore, possibilité qu’apparaisse le vivant… et peut-être le pensant, qu’Engels qualifiait de « floraison suprême de la nature ».

Bref, la tendance à la complexité est universelle, ou mieux, « universale », même si bien entendu les contre-tendances et des retours en arrière existent aussi dialectiquement (encore faut-il voir les choses à différentes échelles spatiales et temporelles, voire dans différentes modalités de la spatio-temporalité). De même que la complexification du vivant, dont nous sommes sortis pour le meilleur et pour le pire, n’est pas accidentelle, et que Suing a raison d’en souligner la permanence structurante (pas unique sans doute !), de même que les hommes peuvent-ils enfin apprendre à penser leur devenir socio-historique comme s’inscrivant in fine dans le courant de la nature (s’ils ne l’apprennent pas à temps ils disparaîtront : le sens matérialiste n’est pas l’Etat-Providence ontologique de l’homme !), de même le vivant ne doit-il pas être comparé au triste Sisyphe roulant sa pierre à contre-pente et sans espoir d’accéder jamais au Toit du monde. Cela ne signifie pas que, compte tenu de sa temporalité propre, qui est en général bien plus « courte » que celle de la cosmogénèse ou de la succession des ères géologiques et/ou climatiques (cela s’appelle la mort, y compris celle des espèces), le vivant – qui n’en provient pas moins de la tendance générale, ou si l’on préfère, de la possibilité générale de l’univers-nature à se complexifier – ne doive pas traiter comme si de rien n’était son milieu immédiat comme étant principalement « entropique » et hostile ; de même que l’homme a longtemps dû traiter la nature, dont il sort pourtant, comme un marâtre dangereuse qu’il fallait à tout prix « dompter » et « domestiquer » à l’égal des « bêtes sauvages ». Par conséquent, évitons à la fois d’universaliser le « principe entropique » au nom d’un matérialisme sec ou d’imaginer à l’inverse que l’univers est tout entier régi par un « principe anthropique » providentiel replaçant l’Homme au centre de la « Création »… 

Non seulement l’idée de finalité ne doit plus être taboue mais elle doit être assumée et redéployée d’un point de vue dia-matérialiste et rationaliste, en tant que finalité interne, subordonnée et dérivée, à la fois contre le providentialisme téléologique (créationnisme et « dessein intelligent ») et contre le matérialisme mécaniste qui, d’ailleurs, flirte sans cesse avec elle inconsciemment, comme l’a montré ce chapitre ; y compris si on la pense restrictivement, à l’instar de Schopenhauer, comme une ruse du non-sens, comme un piège illusoire que le vivant s’est tendu à lui-même sous la forme du vouloir-vivre pour enchaîner sadiquement les vivants à la quête éperdue, chichement payée par la décevante recherche du plaisir fugitif, de leur impossible (à terme) conservation. 

Comme nous l’avons montré dans un article du n°42 de la revue Etincelles (janvier 2019) consacré à une relecture matérialiste de Teilhard de Chardin, on peut aussi penser le(s) sens, articuler ses différentes strates pas si spontanément enharmoniques, sens de l’univers-nature en mouvement, sens de l’évolution, sens de l’histoire, sens de l’ « existence », comme une quête, pas forcément « vaine » par avance, de l’affranchissement et de l’émancipation ; donc de l’intériorisation et de la maîtrise des conditions de vie extérieure au prix d’une complexification interne croissante. C’est ce qu’a fait obstinément et obscurément l’humanité qui, au prix d’une pensée et d’une praxis toujours plus globalisantes, du moins sur le plan purement technico-scientifique, a fini par peupler toute la planète, à visiter les cavernes, les abysses, les pôles, les déserts et les hauts plateaux et est même sur le point de partir coloniser d’autres mondes. Bien entendu, science sans conscience critique de la science, de son sens et de sa portée politico-pratique, bref, sans sagesse, et à notre époque, sans sagesse de la révolution, ne peut être que ruine du sens. Faut-il pour autant répudier la grande espérance formulée part le grand physicien Louis de Broglie ? Fondateur de la Mécanique ondulatoire, mais non moins passionné d’histoire et de biologie, proche du physicien matérialiste et communiste Jean-Pierre Vigier et lecteur assidu de Teilhard de Chardin, L. de Broglie écrivait superbement au crépuscule de sa longue vie de savant et de maître subtil de la langue française, 

« Il a fallu toute le lent développement de la science moderne pour nous faire connaître toutes ces choses qui sont en nous. Le travail de la science consiste donc en une sorte d’étrange ‘reconquête’ par laquelle, en venant se refléter dans la conscience et la raison des hommes, le monde apprend à se connaître lui-même. Etonnant aboutissement de l’aventure du protoplasme ! Ainsi se dévoile l’éminente valeur de la pensée humaine en général, de la pensée scientifique en particulier. Par elle, l’Univers prend un peu conscience de lui-même ; par elle, dans une certaine mesure, nous sommes la conscience de l’Univers et chaque progrès de notre science marque un progrès de cette conscience. Enthousiasmé par les perspectives que de telles pensées lui découvrent, l’homme de science peut s’exalter à l’idée qu’il participe plus que tout autre à cette évolution progressive du monde. Il sera tenté de s’écrier avec Jean Perrin : ‘ grâce aux êtres vivants de plus en plus différenciés où s’organise sa structure, l’Univers s’élève graduellement à une pensée de plus en plus vaste, au point de devenir une volonté qui dirige elle-même son histoire’ ».

 


Du "sens" et de la direction en biologie de l'évolution

Par Guillaume Suing

 

Renouer le dialogue entre sciences et philosophie me parait central, en premier lieu pour déjouer les pièges idéologiques post-modernes aujourd’hui dominants : Ceux-ci freinent la nécessaire vision d’ensemble que nous devons élaborer pour aborder l’avenir, notre avenir, de façon sérieuse et dépassionnée. Le présent échange en est –il me semble- une tentative fructueuse et prometteuse pour le camp rationaliste et matérialiste dont nous nous réclamons.

Il y a en effet sur la question du « sens » bien des choses à dire relativement à la recherche en biologie, actuellement bouleversée par l’épigénétique, mais aussi par de nombreux domaines où l’approche holiste reprend violemment le pas sur les approches réductionnistes « chimistes » qui ont longtemps prévalu en agronomie, en immunologie, en physiologie nerveuse, etc.

Le néodarwinisme a conquis dans le siècle dernier, concédons-le, au moins une victoire sur l’idéalisme ; celle d’une rupture franche avec le « finalisme ». Mais l’idée « vitaliste » d’une finalité, d’une direction « idéale » téléguidée dans l’évolution du vivant (vers l’homme ou directement vers Dieu), contre-offensive de l’idéalisme une fois le consensus darwinien obtenu de haute lutte face au créationnisme fixiste, peut pourtant revêtir bien des significations. Et il semble que toutes ont été indistinctement battues en brèche…

Aujourd’hui toute évolution est nécessairement, dans le paradigme dominant, « émergente » (comprendre « dont l’origine est obscure »), buissonnante (comprendre « sans direction privilégiée », et surtout pas du simple vers le complexe), contingente (comprendre « fugace », « fragile », « non-nécessaire »), « non anthropocentré ».

Or si on accepte l’idée que le vivant se distingue qualitativement du reste de la matière par une propriété d’autoreproduction permanente et impossible, le « sens » s’impose de lui-même : et ce qui l’impose est son histoire même !

Si la répétition de lui-même caractérise le vivant, cette répétition impossible en valeur absolue jette les bases d’une évolution, d’une complexification, d’une consolidation progressive des stratégies de conservation, force contradictoire rendant nécessaire l’évolution des espèces. Citons-en quelques étapes marquantes.

– Tout d’abord, l’autoréplication spontanée des premières molécules organiques de type ARN, première forme effectivement fragile et fugace de néguentropie, est en soi une direction, non pas dans l’espace, mais dans l’espace-temps… Une sorte de deuxième big-bang pour réassocier, sans vitalisme, le vivant à la matière céleste.

– Cette autoréplication, en incluant nécessairement les modifications performantes (puisque les autres disparaissent tout aussi nécessairement), a généré la forme actuelle de reproductibilité que nous connaissons sous le nom fameux d’hérédité. L’hérédité génétique est ici la séparation des fonctions de catalyse et d’archivage en deux compartiments interagissant : l’ADN d’une part, les protéines exprimées de l’autre. L’archivage devient alors un seuil de consolidation de l’autoréplication, initialement spontanée, des acides nucléiques (qui accomplissaient les deux fonctions en même temps). C’est le monde des unicellulaires.

– Les modalités héréditaires se complexifiant avec le passage historique aux êtres pluricellulaires, on voit ensuite apparaître de nouvelles formes, non plus strictement moléculaires mais cellulaires, de stratégies conservatrices. Deux me semblent marquantes au stade de connaissance où nous en sommes : La mémoire immunitaire d’une part, acquise et incorporée par les animaux en adéquation constante avec leur environnement, exemple hautement complexe d’incorporation « dans les gènes » non pas de l’acquis, mais de ce qui « permet d’acquérir ». D’autre part, la transmission héréditaire épigénétique, autrement dit la fameuse, et si longtemps niée ou caricaturée « hérédité des caractères acquis ». Celle-ci peut être conçue comme une forme d’évolution d’urgence, suppléant à la lenteur de l’évolution passive des gènes quand le milieu change trop rapidement, en particulier (mais pas seulement) chez les végétaux,qui ne peuvent fuir leur milieu contrairement aux animaux.

– C’est enfin surtout avec les vertébrés qu’on assiste à l’apparition d’une forme encore plus complexe d’incorporation, c’est peu de le dire : la mémoire cérébrale. Comment ne pas interpréter l’acquisition d’une telle capacité, même si elle donne lieu parallèlement à d’autres possibilités ensuite, dans le contexte d’une survie nécessaire face à un milieu imprévisible et menaçant. La mémoire jette les bases d’une transmission de savoirs aptes à dominer, et rendre moins imprévisible, cet environnement vital ?

– N’en restons pas là : à son stade supérieur, la mémoire crée avec la lignée humaine une opportunité nouvelle, encore plus prometteuse : la recherche scientifique. C’est en effet avec des individus dont les intellects sont limités, comparables de l’Antiquité à nos jours, que se construit le savoir scientifique. Il est la force conquérante non pas d’individus isolés, sanctifiés par des statues ou des prix Nobel, mais bien d’un travail collectif, cumulatif, multiforme, gigantesque, fait d’avancées et de reculs, de l’Humanité toute entière. C’est la monstruosité des rapports de production actuels, capitalistes, qui déforme malhonnêtement notre vision de la science, car celle-ci, dépouillée des lobbys parasitaires, est évidemment notre plus grande force pour affronter l’avenir, pour assurer notre survie, notre essor.

Mettre des traits d’union entre ces stratégies chronologiquement et logiquement enchâssées, des plus simples aux plus complexes, ce n’est pas imposer au vivant une direction écrite d’avance, une « finalité » inspirant nos tentations mystiques, mais observer au contraire qu’ayant posé le vivant comme un aspect particulier de la matière, c’est-à-dire du mouvement, la réalisation de ce mouvement devient histoire et ne peut être traduit en concept qu’à l’étape, la notre, où l’homme pense et se pense.

En mettant l’accent sur le dépassement dialectique qui produit de nouvelles stratégies de lutte pour la vie en niant les précédentes, nous déjouons le piège positiviste, dernier écueil du finalisme moderne, sans tomber dans l’obscurantisme postmoderne qui condamne toute foi dans le « progrès » : L’hérédité génétique des cellules nie le monde anarchique des ARN ; l’hérédité des caractères acquis nie, par l’épigénétique, la stabilité mortifère du gène ; la « culture », fondée sur les capacités cognitives du cerveau à commencer par la transmission de la mémoire, nie la « nature » (dont elle provient) ; et la science nie nos limites intellectuelles d’individus…

De cette ombre portée, des réplications moléculaires à la « noosphère » moderne, nous inscrivant dans cette vaste dynamique collective, chacun peut trouver, comme le suggère à juste titre Georges Gastaud, un « sens » à son propre chemin… Celui de la lutte pour la vie.


Appendice au chapitre X

Complément de décembre 2018 en vue de la réédition de Lumières communes

Par Georges Gastaud

 

L’ontologie dia-matérialiste au cœur de la révolution épistémique en cours (physique, cosmologie, mathématiques)

 

Depuis plus d’un demi-siècle, le matérialisme dialectique n’est pas seulement discriminé, dénigré et boycotté par l’idéologie philosophique dominante : il est boudé ou brocardé par nombre de « marxistes » qui achètent la paix sociale avec l’adversaire idéologique en se démarquant haut et fort de cette « métaphysique matérialiste » (cette expression dédaigneuse est d’Enrico Berlinguer) que seraient la dialectique de la nature et la gnoséologie du reflet. Le fait nouveau est pourtant que le  néopositivisme et l’empirisme logique, qui forment le cœur de la doxa épistémologique occidentale, sont en crise ouverte tandis qu’à l’inverse, la dialectique matérialiste, et plus spécifiquement le couple formé par l’ontologie dia-matérialiste et par la gnoséologie du reflet, font objectivement retour sur la scène théorico-scientifique. Cet affrontement souterrain sur l’ontologie, et plus spécialement sur l’ontologie du monde physique, c’est-à-dire sur le socle de toute philosophie matérialiste digne de ce nom (y compris de celles qui ne se savent pas ontologiques…), se déroule évidemment à un très haut degré d’abstraction, confinant paradoxalement à la logique et aux mathématiques pures, mais son issue est déterminante à long terme pour l’avenir des Lumières communes, donc pour celui d’une future hégémonie culturelle progressiste. Dans une conjoncture historique et anthropologique où le sort de l’homme, de l’histoire et de la biosphère est plus vitalement lié que jamais à celui de leur insertion consciente dans le devenir planétaire, voire dans l’aventure cosmique, il est en effet décisif que la conception du monde critico-progressiste en reconstruction puisse prendre appui sur une approche clairement rationaliste et réaliste – au sens mobile et dynamique de ces adjectifs, qu’il faut savoir dégager d’une certaine gangue académique – du monde cosmo-physique, socle objectif incontournable de toute vie, de toute histoire et de tout « phénomène humain ». A cet effet, il est déterminant que soit battue en brèche une idéologie philosophique, l’agnosticisme idéaliste, qui proclame l’irrationalité, et donc, l’inintelligibilité radicales de la nature (et de l’histoire), et que triomphe à l’inverse une orientation dia-rationaliste et réaliste fondée sur l’idée d’une convergence ontologique possible du concept de matière et du « mouvement logique », des sciences expérimentales et du formalisme logique, du champ scientifique confinant à l’universalité de la philosophie et, symétriquement, du champ philosophique prenant de plus en plus appui sur les élaborations scientifiques les plus globalisantes. Or, cette convergence de portée épistémiquement révolutionnaire est possible, non seulement sur le plan proprement conceptuel et quelque peu intemporel de l’argumentation philosophique générale, mais sur le terrain même des sciences physico-cosmologiques : différents indices et résultats obtenus en ces domaines, sans parler des méthodes mathématiques ou expérimentales utilisées pour les produire, prouvent que la vieille interprétation « orthodoxe » (en réalité idéaliste-agnostique) de la physique liée au triomphe philosophique provisoire de l’Ecole de Copenhague (Bohr, Born, Heisenberg…) sur le camp réaliste-rationaliste conduit par Einstein, Schrödinger, Langevin et Louis de Broglie, est de plus en plus contestée au profit de conceptions nouvelles qui se réclament explicitement de l’ontologie matérialiste et qui le font avec des arguments dont le caractère dialectique est de plus en plus patent. Comme le déclarent offensivement MM. Ekert et Deutsch à propos du passé et de l’avenir de l’ontologie quantique, 

 

«  La théorie de pointe du domaine scientifique le plus fondamental semblait contredire l’existence même d’une réalité physique connaissable objectivement  (…). La situation s’améliore et l’on peut dire que c’est la physique qui a remis la philosophie sur les rails. Les gens veulent de toutes façons comprendre la réalité et nous dépassons enfin les limites fixées par des points de vue philosophiques néfastes ».

 

Ainsi pourrait se clore la presque séculaire séquence idéologico-épistémique ouverte dans les années 1920/1930 par la victoire (non moins philosophique que scientifique !) de l’idéalisme agnostique et quelque peu mystique de Bohr (soutenu notamment par Born, Dirac et Heisenberg) sur le réalisme rationaliste d’Einstein. Sans réhabiliter le moins du monde la théorie jdanovienne et anti-léniniste des « deux sciences », « science prolétarienne » et « science bourgeoise » (sic), il convient en effet de réévaluer fortement les enjeux idéologico-historiques de cet affrontement épistémologique dans et sur la « réalité physique » dont Louis de Broglie, père de la Mécanique ondulatoire et allié initialement hésitant des réalistes Einstein et Schrödinger, a donné le récit saisissant dans plusieurs de ses textes, la fin de sa fertile carrière scientifique ayant été consacrée à la tentative quelque peu tardive (ou trop en avance ?) de lancer une contre-offensive réaliste-rationaliste avec l’aide de ses collaborateurs Jean-Pierre Vigier et Georges Lochak. De Broglie, qui fut lui-même marginalisé à la fin de sa vie (moins d’un point de vue honorifique que du point de vue des moyens et de l’écoute qui lui furent alloués) en raison de sa dissidence par rapport au crédo de Copenhague, décrit avec une grande amertume la manière quasi-politique dont les Congrès Solvay des années 20/30 furent littéralement quadrillés par l’école idéaliste/agnostique de Nils Bohr ; à l’inverse, les physiciens « réalistes » (Einstein, Lorentz, Schrödinger et le jeune de Broglie, dont les théories synthétiques de l’onde à bosse et de la double solution n’étaient pas encore  suffisamment étayées mathématiquement) hésitèrent alors à se concerter, firent preuve de naïveté tactique et tardèrent à se soutenir mutuellement pour chercher, dégager et approfondir ensemble des pistes alternatives de recherches réalistes-rationalistes. Tant il est vrai que l’ennemie de l’objectivité scientifique est moins la lutte ouverte des tendances (arguments contre arguments) que le monopole indu d’une tendance disposant de solides appuis idéologiques en dehors de la sphère scientifique ! Si bien que, provisoirement isolé, prématurément vaincu et rallié bon gré mal gré à Copenhague, le fin physicien de Broglie confesse, non sans amertume, avoir dû enseigner durant des décennies l’interprétation « orthodoxe » à laquelle il ne croyait guère, avant de se rebiffer enfin et de tenter (trop tard, car l’école orthodoxe avait conquis les positions de pouvoir, y compris en France) de contre-attaquer à partir d’une démarche ouvertement dialectique. Il faut voir de quelle manière de Broglie, dont l’expression est d’ordinaire empreinte de retenue et de classicisme littéraire, fustige la manière dont Einstein lui-même fut scientifiquement marginalisé aux Etats-Unis, son jubilé lui-même donnant lieu à des attaques d’une stupéfiante dureté, y compris dans l’ouvrage jubilaire officiel censé célébrer le vieil homme. Pourtant, comme nous le verrons ci-dessous, l’agnosticisme idéaliste semble « avoir mangé son pain blanc » puisque désormais, sous la pression convergente de fougueux physiciens réalistes, de partisans d’une ontologie matérialiste acceptant les faits quantiques sans mégoter, de cosmologistes désireux d’explorer l’histoire véritable de ou des Univers, de topologistes et de géomètres travaillant au plus près des cosmo-physiciens sur la dialectique de l’Univers, de ses formes et de sa dynamique, l’ontologie dia-matérialiste couplée à un nouveau réalisme gnoséologique, semble rapprocher comme jamais depuis Thalès de Milet le matérialisme philosophique des mathématiques et des sciences cosmo-physiques.

 

I – Légitimité générale de l’ontologie dia-matérialiste et de la théorie matérialiste de la connaissance.

 

Ce premier point ne vise qu’à rappeler à grands traits ce que nous avons établi dans plusieurs écrits, dont le dernier en date est le tome I de Lumières communes (fondements du matérialisme philosophique) que complètent diversement le tome II (sur la théorie matérialiste de la connaissance) et le tome III que le lecteur a entre les mains. C’est pourquoi nous nous contenterons de rappeler brièvement, voire elliptiquement, pour quelle raison la dimension ontologique du matérialisme, marxisme inclus, est incontournable et cela pour des raisons structurelles qui valent indépendamment de la révolution épistémologique en cours.

 

·         D’abord, pour tout matérialiste, la gnoséologie (théorie du connaître) dépend de l’ontologie et non l’inverse car la capacité qu’a le cerveau humain de « refléter » plus ou moins adéquatement le monde dépend d’abord du fait que le monde existe en dehors de nous – ce que sont loin de concéder nombre de conceptions idéalistes dites « immatérialistes » -, du fait que ce monde nous est accessible par le truchement des sens (si appareillé et si théoriquement construit que soit notre regard), que nous sommes fait, si j’ose dire, de la même farine que le monde matériel et que celui-ci a existé bien avant que n’émerge en lui et par lui des animaux capables de sentir et des hommes capables de concevoir. La thèse centrale de l’idéalisme, toutes variétés confondues, est que dans le couple asymétrique esprit-matière qui délimite le champ de la philosophie (ce qu’Engels appelait la « question fondamentale de la philosophie »), le pôle absolu est l’esprit, la matière étant « posée » (magiquement !) par l’esprit si bien que la relation même qui unit l’esprit à la matière est de nature spirituelle. Si bien que l’idéalisme débouche forcément, soit sur l’idée que notre pensée « crée », ou tout au moins « ordonne » et « structure » le monde (allons donc ! c’est seulement la connaissance du monde qu’elle est à même de charpenter pour la part qui lui revient), soit que l’ « Idée », la « pensée », la Raison (tout est dans la majuscule !), la connaissance est l’acte même qui confère l’être au réel, si réel il y a. Bref, « les idées gouvernent le monde » si bien que l’idéalisme confère nécessairement le primat structurel, au sein du champ philosophique, à la gnoséologie sur l’ontologie puisqu’il fait sortir l’être de la pensée, l’objet du sujet, et qu’il conçoit la « relation réciproque qui lie l’objet au sujet » (Hegel) comme relevant de l’esprit ou de « la conscience » (divine ou humaine, peu importe). Or il n’est que trop évident que pour le matérialisme, le reflet cognitif dépend de la matière, et qu’il lui est lié et structurellement subordonné à travers le corps et les activités de notre corps (dont font partie la sensibilité et la pensée proprement dite), et plus encore, s’agissant de l’homme, à travers la pratique sociale qui est elle-même, comme le rappelle Marx dans ses Thèses ad Feuerbach, une donnée matériellement déterminée. Par ex., si marquées que soit, par l’expérimentation et l’appareillage humains, la collecte des « observables » microphysiques, il est aberrant de proclamer que la fixation du positionnement et/ou la vitesse d’une particule « élémentaire » soit le produit d’une décision du tout-puissant « Observateur » humain : concrètement ces variables physiques découlent évidemment à la fois, fût-ce de manière apparemment inextricable, du mode de fonctionnement propre du système microphysique observé et de l’action matériellement exercée sur lui par l’entremise de l’appareillage expérimental : bref, comme l’écrit le marxiste portugais José Barata-Moura, l’un des meilleurs spécialistes de l’approche ontologique de la praxis chez Marx,

 

« … il faut donc que la pratique (die Praxis) reprenne son emplacement et soit exercée au milieu même des entrelacs dialectiques de la matérialité. Non pas comme une « valeur » que, « du dehors », l’on y « ajoute », ou comme le concours fortuit – la grâce – de contingences descendues d’ « ailleurs » qui s’apposent et s’opposeraient à la « réalité », mais en tant qu’une véritable texture dynamique qui frémit à l’intérieur de « ce qui est », tout en en modelant le tissage ».

 

·         Plus généralement, le reflet est une propriété de la matière en mouvement – dont l’expression scientifique n’a lieu que chez l’homme sur notre planète – et non pas l’inverse. Ce n’est pas parce que l’on ne sait quelle « conscience » ou pré-conscience, animale, humaine ou divine, reflète peu ou prou le monde (de manière sensitive et/ou intellective) que le monde se met gentiment à exister et à s’agiter, et ceux qui pensent le contraire défendent une thèse proprement magique, pour ne pas dire délirante. C’est au contraire parce que la nature-matière-univers comporte, au moins en puissance, puis finalement en acte, avec l’apparition de certains vivants (évolution) et de la civilisation humaine (histoire), la capacité de se refléter peu ou prou par l’entremise de tels systèmes vivants ou de tels acteurs socio-historiques, que nous en arrivons, bien ou mal, à penser le monde (et éventuellement à le penser d’autant plus exactement que nous nous dotons de moyens pratiques et d’appareils conceptuels plus importants pour interférer méthodiquement avec lui, par ex. l’informatique et la robotique) et même parfois à le comprendre et à l’expliquer. Qui peut d’ailleurs sérieusement croire que les supernovae, les espèces animales disparues, les « hommes des cavernes », la signification des hiéroglyphes, etc. aient respectivement attendu pour exister et prendre forme, les constats empiriques des vieux astronomes chinois ou les recherches de Cuvier, de l’abbé Breuil ou de Champollion ?

 

Du reste, les philosophes qui rejettent l’ontologie matérialiste comme « non critique » et qui placent au premier plan la théorie de la connaissance, y compris ceux qui pensent que nous ne pouvons connaître l’essence de la réalité (la chose en soi pour flirter avec le vocabulaire kantien, les causes, pour parler comme Comte, etc.) ne se doutent pas qu’ils font à leur insu de l’ontologie idéaliste, voire spiritualiste et mystique ; car, comme le dira Hegel,

 

« … concevoir ce qui est, c’est la tâche même de la philosophie »,

 

… si bien que toute grande philosophie possède son « jardin » ontologique public… ou secret, soit qu’elle affirme à la suite de Platon que les Idées ou Formes intelligibles tressent la texture même de l’être, soit qu’elle propose sans s’en douter une forme d’ontologie négative si mystérieux étant cet être que l’on ne peut que le décrire ou que le « schématiser » du dehors (le « modéliser » ?) sans jamais en pénétrer les arcanes. Ainsi procédaient au Moyen Âge les adeptes de la théologie négative et autres amateurs de Celui que l’augustinien Pascal nommera le « Dieu caché ». Si bien que la vraie question n’est pas de savoir si une philosophie marxiste complète comporte ou pas une dimension ontologique, puisque toute philosophie sérieuse en a une, avouée ou clandestine, mais de savoir si cette ontologie est avouée, assumée et par conséquent critique. Quoi de moins critique au final qu’une gnoséologie « critique » dissimulant une ontologie inavouable… et irrationaliste ?

 

Pourtant revient sans cesse l’inusable reproche fait au concept d’ontologie matérialiste, celui de n’être pas « critique », d’être « pré-kantienne », comme si Hegel n’avait pas lui-même critiqué et dépassé depuis longtemps les étroitesses du kantisme, voire de relever du honteux « réalisme naïf ». A ce reproche, vulgarisé par Sartre dans sa Critique de la raison dialectique, Lénine a par avance répondu en rappelant, dans ses Cahiers sur la dialectique de Hegel, que…

 

·         … « la dialectique est la théorie de la connaissance du marxisme » (Lénine).

 

Le génie philosophique de Lénine, dans les Cahiers qu’il a furtivement consacrés à sa lecture de la Grande Logique de Hegel, est d’avoir appelé à fusionner la théorie matérialiste du reflet cognitif, à laquelle on résumait trop souvent la gnoséologie du marxisme, à la dialectique (ontologique : dialectique de la nature en général, dialectique de l’hominisation, sciences du psychisme et du langage, dialectique socio-historique, devenir scientifique) ainsi qu’à logique dialectique, que Lénine appelait à remodeler à partir d’exigences matérialistes. Déjà, comme nous l’avons montré en détails dans le tome II du présent livre, Marx avait déployé une époustouflante dialectique de la dialectique « subjective » (celle du concept et de la connaissance) et de la dialectique « objective » (celle de la réalité elle-même, notamment historico-économique) dans sa rien moins que naïve Introduction à la méthode de la science économique, datée de 1857, et qui servit de véritable Discours de la méthode pour la rédaction du Capital. Marx y montre, de manière tout à fait paradoxale, que, le reflet cognitif est une construction qui, à partir de l’incontournable intuition sensible (que dédaigne souverainement et stupidement la contrefaçon de rationalisme qu’on nomme l’innéisme) et des abstractions plus ou moins ajustées qui en procèdent, la connaissance scientifique cherche, non pas à produire de simples généralités qui ne sont que le matériau de la pensée scientifique, mais «  reproduire le concret par la voie de la pensée » en produisant un « concret-de-pensée (Gedankeskonkretum) » qui permette de saisir ce qu’il nomme par ailleurs « la logique spéciale de l’objet spécial » et que Lénine nommera par la suite « analyse concrète de la situation concrète ». Mais cette dialectique « subjective », que j’ai proposé de requalifier en dialectique subjectale (car elle n’a rien de platement subjective, au sens de subjectiviste !), ne pourrait pas « attraper » sa part de réel (le concept est « saisie », Begriff, comme dit l’allemand, con/ception, co/saisie, comme disent le latin et sa traduction française littérale) si parallèlement à cette dialectique du sujet et de l’objet de la pensée n’émergeait pas dans le réel même le général sous la forme symétrique d’une abstraction réelle, « objectale », et prenant forme empirique dans certaines conditions du développement historique de l’essence. Marx le montre tout particulièrement pour l’argent, qui est à la fois une marchandise particulière et marchandise « en général » permettant de troquer le troc contre l’échange monétaire, de manière à l’universaliser. J’ai tenté dans ce livre de montrer que les convergences épistémiques de la microphysique et de la cosmogonie imposaient de concevoir une fusion de l’élémentaire et du cosmologique sous la forme historiquement réelle d’une matière-univers qui soit autre chose que la matière purement abstraite, donc purement « mentale », des raisonnements matérialistes ordinaires. En biologie, on peut penser à l’ADN qui (en première approximation) semblent résumer sous une forme observable et trans-spécifique l’unité matérielle et empirique du monde vivant. Bref, comme l’a maintes fois signalé L. Sève, le marxisme résout en principe l’aporie que présentait Aristote (sans la prendre à son compte en tant qu’élément doctrinal) quand il déclarait dans sa Métaphysique qu’ « il n’est d’existence que du singulier, de connaissance que du général » : qu’il y ait, du côté subjectal, mental si l’on préfère, une production de concret de pensée englobant l’historicité et la singularité (« logique spéciale de l’objet spécial », disait Marx), et du côté objectal, « matériel » ou « réel » si l’on aime mieux, une production – immanente au développement réel, indépendante de l’ « esprit »– une production d’ « abstrait empirique », cela rend possible ce « miracle de la connaissance » qui ne cessera jamais d’ébaubir les doctrinaires de l’idéalisme empêtrés dans les « mystères de l’induction » et de l’« impossible généralisation » ; donc condamnés à tanguer sans fin entre une « construction rationnelle » dénuée de fondement empirique solide, et un empirisme tâtonnant accumulant sans fin les « cas » et autres « exemples » sans nul espoir de saisir le déploiement des essences (physico-cosmiques, biologiques, économiques…) dans leur logique historique, en un mot, dans leur dialectique, c’est-à-dire dans leur dynamique logique. A l’inverse, le matérialisme dialectique est structurellement (pour peu qu’il remplisse sa tâche !) de « faire tenir ensemble » ces bribes de gnoséologie matérialiste que sont le juste rappel par Spinoza que « le concept de chien n’aboie pas », la juste remarque rationaliste selon laquelle la connaissance est active, qu’elle n’a rien d’un « reflet passif » (« on expérimente avec sa raison », dit Bachelard, à quoi fait écho sur le terrain politique le « théoricisme » relatif de Lénine : « pas de mouvement révolutionnaire sans théorie révolutionnaire ») et bien entendu, l’idée aristotélicienne que « tu n’es pas blanc parce que nous disons vrai en disant que tu l’es, mais que nous disons vrai en le disant parce que tu es blanc ». C’est pourquoi nous avons montré dans notre tome II que le reflet cognitif n’est ni l’impossible coïncidence de l’être et de l’idée, comme l’imaginent généralement les idéalistes spéculatifs (qui en arrivent à faire de l’être un phénomène de l’Idée), de Platon à Hegel (ou à l’inverse les empiristes, qui dissolvent le concept et en font une image affaiblie), ni à l’inverse, un irrémédiable divorce de la pensée et de l’être, comme le croient les tenants de l’agnosticisme (lesquels, comme Kant, veulent das Wissen beschränken, um zum Glauben Platz zu geben, « limiter le savoir pour faire place au croire »). Comme nous l’avons montré dans notre chapitre sur la vérité (T. II), le reflet cognitif humain doit au minimum être rattaché au jugement logique, à l’attribution et son statut épistémique relève de l’analogie plutôt que de l’identité plate entre l’ordre des choses et celui des pensées médiatisées par le langage (et ajouterons-nous, par la pratique) : en quoi nous nous faisons explicitement disciple d’Aristote, lequel, comme Marx son admirateur jamais démenti, aura passé sa vie scientifique à accorder la logique à l’expérience et à réconcilier la raison discursive (logos) au mouvement de la vie. Il nous est impossible ici de développer longuement sans nous répéter fastidieusement : si l’on ajoute à ces analyses quelque peu elliptiques le fait que, pour saisir dynamiquement le mouvement du réel, il faut combiner la dialectique de la nature à une classification dynamique des sciences, et pour cela associer le meilleur d’Engels au legs le plus matérialiste d’Auguste Comte, il suffira d’un zeste de bonne foi pour reconnaître qu’un tel appareil critico-conceptuel articulé et massif est aux antipodes du « réalisme naïf » que tant d’antimarxistes et de semi-marxistes imputent si naïvement au matérialisme dialectique !

 

·         Où l’on voit que la vraie critique se moque du « criticisme »...

 

Mais sans doute faut-il, de manière moins défensive que nous ne l’avons fait jusqu’ici, porter le fer sur le « criticisme » idéaliste lui-même. Loin de nous l’idée de minimiser l’apport colossal de Kant sur une foule de terrains, et nous avons suffisamment rappelé dans notre tome premier que la Dialectique transcendantale, cœur de la Critique de la raison pure, est la matrice de la dialectique moderne, comme l’a d’ailleurs reconnu Hegel tout en accusant Kant d’un certain manque de cran théorique. C’est le fond de l’idée criticiste, qui est à la critique ce que le nationalisme est à la nation et l’intégrisme à l’intégrité (sit venia provocatione !), que nous nous contenterons d’épingler ici. D’abord en faisant remarquer que le proverbe russe « la souris ne connaît pas d’animal plus dangereux que le chat » s’applique parfaitement à ceux qui reprochent au « diamat », qui se résume pour eux à Lyssenko ou à Jdanov, d’avoir manqué, à cause de son « dogmatisme métaphysique », la génétique mendélienne (qui n’avait d’ailleurs pas que des vertus conceptuellement parlant) ou la psychanalyse. Comme si, à côté de ces graves ratages théoriques, dont les causes sont du reste plus politiques que proprement théoriques, les dialecticiens matérialistes n’avaient pas aussi et surtout accouché du matérialisme historique (Marx, Engels), de la compréhension profonde de la logique capitaliste (Marx), de l’anticipation des rapports entre chimisme et biologie (Engels, puis Oparine), de l’approche matérialiste du langage (Bakhtine, Marcel Cohen) et du psychisme (Vygotski, Leontiev, Wallon, Zazzo…), d’une approche socio-historique novatrice de la famille et du rapport de genre (Engels) et d’une conception évolutionniste de l’univers qu’il est de bon ton de rapporter à Teilhard de Chardin (comme le fait pudiquement Hubert Reeves) en ignorant pudiquement la Dialectique de la nature et la priorité historique incontestable d’Engels.

 

A l’inverse, comment méconnaître le fait patent que les conceptions agnostiques, qu’elles émanent du criticisme kantien ou du positivisme comtien et de leurs surgeons modernes respectifs ou mêlés, ont accumulé de lourds obstacles épistémologiques, au sens que Bachelard donna à ce mot : alors qu’avant de devenir tardivement « criticiste », le premier Kant, physicien et astronome, avait produit une théorie dynamique du système solaire qu’explicitera Laplace et que saluera Engels, alors que le jeune Kant était fort proche de penser la négativité de la matière dans son Essai pour introduire en philosophie le concept de grandeur négative, le Kant plus âgé et « postcritique » que nous célébrons tous aura notamment expliqué que l’on ne pourrait jamais à l’avenir expliquer le passage du monde physico-mécanique au monde vivant, ni l’émergence de la culture et de l’histoire humaine à partir du vivant. En proposant l’aberrante conception de l’idéalisme transcendantal qui fait de l’espace et du temps des « intuitions pures » étrangères aux « choses en soi » et ancrées dans notre sensibilité, et en voyant dans l’analyse euclidienne de l’espace (une parmi d’autres possibles) une incontournable « forme a priori de la sensibilité » indispensable à toute physique voulant se présenter comme une science, le kantisme aura rendu plus difficile l’approche mathématique des géométries non euclidiennes ; il aura du même coup obscurci les conditions d’une approche physique objective de la Relativité de l’espace et du temps qui joigne étroitement temps, espace et mouvement (Relativité restreinte) et qui établisse un rapport dynamique incontestablement « non psychique » entre la spatio-temporalité, la matière, la vitesse de la lumière et… la gravitation (Relativité générale) !

 

De son côté, A. Comte aura été un indiscutable créateur de science (il est le concepteur de la sociologie, ou physique sociale), mais aussi – de par son agnosticisme foncier – le producteur bien involontaire d’obstacles épistémologiques majeurs. D’abord parce qu’il explique que l’on ne peut jamais aller au-delà des lois liant les phénomènes, qu’il est « chimérique » d’en chercher les causes, mais aussi parce qu’il est impossible selon lui de comprendre comment en eux-mêmes et/ou méthodologiquement, on peut passer du domaine physique au domaine chimique, de ce dernier au champ biologique, et de celui-ci au champ socio-historique, la psychologie étant purement et simplement forclose du champ des sciences positives : si bien que dans le système comtien des sciences, - un système soit disant « positif » et non « métaphysique » -, il n’y a place ni pour l’astrochimie (sans la spectroscopie l’astronomie moderne ne saurait pas grand-chose !), ni pour la biochimie, ni pour la science préhistorique en tant qu’elle étudie la transition entre l’ordre zoologique et l’ordre socioculturel : bref, pas de place pour tout ce qui relève des « sauts qualitatifs » que la dialectique matérialiste met au centre du mouvement de la nature, donc de la classification objective des sciences en la dynamisant au lieu d’isoler les sciences les unes des autres : car qui niera de nos jours, comme les dialecticiens matérialistes Marx et Engels l’avaient compris dès le milieu du 19ème siècle, que, par ex., l’univers a une histoire, que le vivant sort des combinaisons chimiques, macromoléculaires dirait-on aujourd’hui (pour le dire vite), que l’évolution biologique des hominidés a permis l’émergence d’un être, l’Homo sapiens, apte à produire des outils, à parler, à transmettre et à accumuler un héritage (et pas seulement une hérédité), bref à passer, comme le disait Leroi-Gourhan (le fondateur de l’ethnologie préhistorique) « de l’ordre zoologique à l’ordre technique » et, éventuellement, à s’auto-transformer sans cesse pour construire une histoire (historicité, au moins virtuelle, de l’essence humaine) ?

 

Au-delà des aspects polémiques et doctrinaux, comment ne pas voir que le criticisme idéaliste est à ranger au rayon de ces « demi-habiletés » qu’a plaisamment critiquées Pascal ? A un premier niveau, il est certes indispensable de critiquer les naïvetés de la « connaissance première » en s’interrogeant sur les moyens effectifs, donc sur les limites (historiquement variables) de la cognition  humaine : du reste, bien avant Kant, tous les grands philosophes avaient réfléchi sur ce que l’Antiquité grecque appelait la canonique : comment raisonner, comment observer, comment penser, bref, « que pouvons-nous savoir et comment ? » ; en particulier, comment démêler l’apport du sujet dans l’acte de voir, de juger, de raisonner, etc. ? Bref, l’esprit critique est éminemment réflexif et, en ce sens, c’est presque naïvement, que, paradoxalement parlant, il se fait « méthodologie » et qu’il produit régulièrement des Discours de la méthode. Mais il ne suffit pas, par ex., de constater que la couleur rouge est une sensation de notre système nerveux, donc un ressenti, ou que notre intuition de l’espace est ancrée dans notre appréhension pratique du monde : comme toute couleur, la sensation subjective du rouge correspond aussi objectivement à une longueur d’onde physique donnée que mesure précisément l’optique scientifique, de même que nombre de théories géométriques nous délivrent du mono-espace figé de notre intuition ordinaire. Bref, si le réalisme naïf nous livre aux apparences sensibles et nous fait croire sottement que le monde « est » comme il nous apparaît, si la critique réflexive de premier degré nous apprend que c’est nous qui voyons le monde et que nul autre que le sujet, personnel ou collectif, ne construit activement son savoir, un réalisme critique plus accompli (de seconde posture, en position de négation de la négation, donc de troisième degré) nous permet de distinguer ce qui émane de nous dans la sensation : ce qui nous permet de discerner du même coup, au négatif, ce qui provient authentiquement de l’objet observé et de saisir objectivement comment, objectivement, de par sa structure et du fait de sa genèse ontogénique, le sujet construit sa sensation, son jugement, ses raisonnements, etc… et aussi ses illusions, optiques, acoustiques ou… idéologiques. Bref, si un peu de « critique » valorise la subjectivité de la connaissance, une critique plus approfondie permet de percevoir plus objectivement le monde, et surtout, d’objectiver la subjectivité elle-même comme s’y emploient les sciences cognitives. C’est de ce point de vue aussi que Lénine disait que la dialectique est la théorie de la connaissance du marxisme : précisons, la dialectique objective, qui inscrit le reflet cognitif dans une perspective historico-ontologique : car pour saisir objectivement la subjectivité, pour ne faire de cette prise de conscience un prétexte à subjectivisme et à relativisme faciles, et finalement, naïfs, il faut inscrire la connaissance dans l’être et dans son développement, saisir comment la cognition s’inscrit de manière feuilletée et hiérarchisée dans l’évolution du vivant, dans l’histoire de la culture, dans le devenir des sociétés et des idéologies. En un mot, la critique réflexive (second degré) de la connaissance doit se dépasser en étude du devenir des sujets connaissants en tant qu’ils sont des moments objectifs du devenir de la nature, ce qui relève bel et bien de la recherche ontologique : bref, la connaissance et la « raison » humaine sont ontogénétiquement produites par l’être et se règlent sur lui et non pas l’inverse. C’est pourquoi, si nos « catégories » philosophiques sont justes, ou mieux, « ajustées » et « pertinentes », c’est en dernière analyse parce que, aussi indirectement, provisoirement et approximativement que l’on voudra, elles renvoient à des propriétés très générales de la réalité, de la nature, de la matière en mouvement ou du moins, de tel segment très significatif de la matière en mouvement (qui, pour des matérialistes, inclut in fine l’histoire humaine et jusqu’au fonctionnement de la « subjectivité »).

 

Quelle illusion d’ailleurs que de croire que la vérité dépendrait en dernière analyse d’on ne sait quelle méthodologie critique autocentrée et non révisable expérimentalement. Une « critique de la Critique critique », comme eût dit le dialecticien Marx (qui aimait bien le troisième degré et pour cause !) doit au contraire constater que le réel est le souverain juge de toute méthodologie et que ce n’est nullement la soumission à un canon méthodologique fixé a priori par et dans l’ « esprit » qui fournit le critère ultime de la vérité. Y compris dans la dialectique scientifique de la théorie et de l’expérience, comme nous l’avons vu dans notre tome II, l’expérience garde toujours le dernier mot, et à travers elle, le monde réel, car s’il est vrai que l’expérience doit être conduite de manière théoriquement lucide, la théorie de l’expérience elle-même est subordonnée à l’expérience au point qu’en fonction des objets étudiés, la méthodologie doit évoluer : comme nous l’avons montré à propos de la réflexion méthodologique de Popper, même la théorie de la pratique (qui prétendrait fixer a priori, comme crurent le faire Kant et Comte de qui est ou n’est pas à tout jamais « réfutable empiriquement ») doit se soumettre, au troisième degré, à la pratique de la théorie de la pratique ! 

 

II – Le néopositivisme et les autres variétés d’idéalisme « scientifique » comme obstacles épistémologiques radicaux à l’aube d’une révolution cosmo-physique sans précédent

 

Le néopositivisme, et plus généralement, l’agnosticisme et le nouvel idéalisme épistémologique (pour parler comme Michel Vadée) ne se contentent pas de propager à leur insu, comme nous l’avons montré, une ontologie physique non réaliste, immatérialiste et irrationaliste. Sur le plan proprement scientifique, ils constituent un redoutable obstacle épistémologique (et pédagogique !) à la compréhension de la physique quantique, à son raccordement à la Relativité, à la « Grande unification » des théories physiques (unification des interactions forte, électrofaible et gravitationnelle) ainsi qu’à l’indispensable convergence en cours (qui a grand besoin à la fois de réalisme gnoséologique et d’ontologie dia-matérialiste) de la physique des particules et de la cosmologie. Dans le numéro de décembre 2016 de Pour la science, le mathématicien Arthur Ekert et le physicien David Deutsch, tous deux d’Oxford, résument ainsi la face ténébreuse, philosophiquement, pédagogiquement et heuristiquement, de l’interprétation agnostico-idéaliste léguée par l’Ecole de Copenhague :

 

« Pour beaucoup, écrivent MM. Ekert et Deutsch, la théorie quantique montrerait clairement que c’est la seconde vision – la vision pessimiste, qui s’impose. Les théoriciens ont très tôt enseigné à son propos une irrationalité délibérée : ‘si vous pensez comprendre la physique quantique, c’est que vous ne la comprenez pas’. ‘Vous n’avez pas le droit de poser cette question’. ‘La théorie est insondable et le monde aussi’. ‘Les choses sont comme cela sans raison ni explication’. Voilà le genre de phrase qu’on lisait dans les manuels de physique quantique et les textes de vulgarisation » (p. 27).

 

Dans des conditions historiques épistémologiquement bien moins favorables que celles dans lesquelles interviennent désormais MM. Deutsch et Ekert, le physicien français Louis de Broglie s’était lui aussi insurgé contre cette aberration que constitue par définition une science dont le dernier mot n’est aucunement, comme eût dit Einstein avec humour, qu’il soit « incompréhensible que le monde soit compréhensible », mais pis encore (puisqu’on a là double dose d’irrationalité !), que le monde est par nature inintelligible et que cet état de fait est lui-même définitivement incompréhensible : mais que serait un professeur qui déclarerait à ses élèves : « prière de ne plus se poser de questions, c’est comme ça, zéro pointé à qui voudrait à l’avenir comprendre les choses par les causes ! » ? De Broglie déclarait en effet, à l’occasion d’une magnifique conférence sur l’histoire des sciences :

 

« Dans mes recherches, je ne veux pas me soumettre à un système philosophique préconçu, par ex. admettre a priori que le déterminisme est universel, car je ne me sens pas qualifié pour émettre une opinion aussi absolue. Je pense d’ailleurs que l’influence de certains systèmes philosophiques, tels que le positivisme et l’idéalisme, a été assez néfaste dans le développement contemporain de la physique quantique. Cependant, j’ai la conviction profonde qu’il existe une réalité physique extérieure à nous, qui est indépendante de notre pensée et de nos moyens imparfaits de la connaître, sans laquelle l’unité des connaissances humaines, l’accord de tous les hommes sur la constatation des faits seraient incompréhensibles. Je crois aussi à la nécessité de faire reposer nos théories des phénomènes physiques sur des conceptions claires et sur des images précises de leur évolution dans l’espace et dans le temps (ou plus exactement, dans l’espace-temps einsteinien, l’exactitude des conceptions relativistes ne me paraissant pas devoir être mise en doute) »

 

Mais, nous l’avons dit dans l’introduction à cet Appendice, « the tide is turning », et tout récemment, deux articles scientifiques parus dans Pour la science ont crûment révélé la crise de l’agnosticisme néopositiviste dans le domaine de prédilection qui est traditionnellement le sien, celui de la microphysique quantique. A cette fin, les auteurs de ces articles ont proposé les éléments d’une ontologie matérialiste (voire dia-matérialiste) et ils ont même invité à renouveler en profondeur les rapports entre physique et logique (pour « rationaliser » la première, si j’ose dire, et pour matérialiser et complexifier la seconde), et peut-être ajouterons-nous, entre sciences physiques et mathématiques. Commençons par…

 

1°) La critique en marche de l’agnosticisme dominant.

 

·          L’apport de MM. Deutsch et Ekert (Pour la science, S’affranchir des limites du Quantique, décembre 2016, p. 26 et sqq).

 

 

Refusant d’entériner le refus paradoxal de comprendre et de savoir que conforte l’interprétation dite de Copenhague, les deux scientifiques oxfordiens s’interrogent (p. 26) :

 

« L’activité scientifique ne fait-elle que nous dévoiler l’impossibilité de dépasser notre horizon habituel ou transcende-t-elle la bulle la bulle du familier pour révéler des horizons nouveaux ? Nous verrons qu’elle nous a amenés à franchir la barrière infranchissable (sic) que semblait constituer l’horizon quantique derrière lequel se trouve le monde microphysique ».

 

 L’originalité de leur réponse est qu’ils rejettent plus, si j’ose dire, le kantisme (agnosticisme) que le « quantisme » alors que, bien souvent, les physiciens rationalistes/réalistes furent tentés, soit de les adopter en bloc, soit de les rejeter tous deux.

 

« La théorie quantique s’est révélée libératrice, écrivent ainsi MM. Ekert et Deutsch. Loin d’être limitatives, les propriétés fondamentalement quantiques, telles que la superposition d’états, leur intrication, la quantification et l’aléatoire, se sont montrées d’une grande fécondité (ici les auteurs évoquent les applications multiples de la théorie, des lasers aux circuits intégrés en passant par la perspective de l’ordinateur quantique) ; nous sommes en train de découvrir de nouvelles façons d’exploiter la nature et de produire du savoir ».

 

Par ex., quand il est bien interprété, le « mystérieux » principe d’incertitude n’interdit ni l’objectivité, ni la précision des mesures :

 

« … le principe d’incertitude n’exclut pas qu’une observable puisse être mesurée avec précision. Il affirme juste que toutes les observables d’un système physique ne sauraient être mesurées avec précision en même temps » (p. 27).

 

Non seulement on peut changer à volonté un état superposé en un état décohéré, mais la superposition comporte un grand intérêt pratique avec lequel l’informatique à venir va apprendre à jouer,

 

« … le fait que les observables puissent prendre simultanément de multiples valeurs augmente leur intérêt pratique »…

 

Et au-delà des aspects pratico-informatiques, il faut apprendre à penser dialectiquement – donc  à tenir bon sur une forme de contradiction réelle – et ontologiquement, réalistement, au rebours de l’interprétation idéaliste orthodoxe qui déréalise la Quantique en la référant à l’intrusion censément démiurgique de l’ « Observateur ». En effet, rappellent MM. Deutsch et Ekert, quand Schrödinger écrivit sa fameuse équation,

 

«  il déclara que son équation décrit toutes les évolutions possibles de la particule, lesquelles ne sont pas des alternatives, mais se produisent vraiment simultanément. Il ne faisait en fait qu’affirmer que son équation décrit la réalité ».

 

On peut même concevoir la plongée dans l’agnosticisme bohrien comme une forme de résistance psycho-épistémologique, au sens quasi freudien du mot, à l’admission de la « contradiction dans l’essence même des choses » (Lénine définissant la dialectique…), l’observation du micro-physicien (mesure) provoquant à la fois la « décohérence » des solutions simultanément possibles à propos de la trajectoire particulaire et l’étrange sabbat des dérobades théoriques qui fait que pour le physicien « orthodoxe », soit le monde microphysique est en lui-même irrationnel (contradictoire au sens non dialectique du mot), sa rationalité purement formaliste et descriptive étant apportée du dehors, soit il est inconnaissable, voire inexistant puisque sa description et son état même sont dus aux intrusions phénoménotechniques de Messire l’Observateur : comme s’il ne fallait pas nécessairement « décohérer » ces « solutions » elles-mêmes ; car l’on ne peut dire à la fois, sans quelque aberration logique, que le monde microphysique extérieur n’existe pas, que d’ailleurs il existe mais est inconnaissable, et que nous le connaissons comme fondamentalement, absolument et objectivement indéterminé L’indétermination quantique érigée en absolu ne peut donc être une propriété objective d’un monde microphysique, par ex. l’électron, dont nous nions, tantôt les propriétés objectives propres, tantôt l’existence propre indépendante de notre esprit ! Sans proposer directement la présente réfutation purement logicienne, MM. Deutsch et Ekert s’en prennent alors vigoureusement aux interprétations « orthodoxes » dominantes et, plus généralement, aux intrusions malfaisantes, proprement obscurantistes, de la philosophie idéaliste dans le champ de la physique :

 

« La physique est si intimement liée à la philosophie qu’au début du XXème siècle, cette dernière a pu avoir des effets nocifs sur des domaines entiers de la physique. Ces doctrines problématiques sont l’empirisme logique (« si ce n’est pas vérifiable par l’expérience, cela n’a pas de sens »), l’instrumentalisme (« l’essentiel est que les prédictions marchent, inutile de se préoccuper de ce qui les amène »), le relativisme philosophique (« les affirmations ne sont pas objectivement vraies ou fausses, elles ne sont que légitimes ou illégitimes dans une culture particulière »). Tous ces courants ont en commun de s’opposer au réalisme philosophique, c’est-à-dire à l’idée que le monde physique existe et que la méthode scientifique permet d’accumuler des connaissances sur lui ».

 

Deutsch et Ekert ajoutent d’ailleurs que les philosophes de métier ne furent pas les seuls à développer ces conceptions idéalistes/agnosticistes et ils accusent nommément Bohr, en raison de ses tendances immatérialistes, voire mystiques affichées, d’avoir joué un rôle-clé dans cette dérapage irrationaliste :

 

« Niels Bohr a développé son influente interprétation de la théorie quantique dans cette atmosphère intellectuelle qui nie la possibilité de parler des phénomènes comme s’ils existaient objectivement. On n’y est pas autorisé à se demander quelles valeurs prennent les grandeurs physiques tant qu’on ne les mesure pas. Les physiciens qui, par vocation, ne peuvent s’empêcher de poser des questions, ont essayé de ne plus le faire et la plupart d’entre eux ont formé leurs étudiants à ne pas le faire. La théorie de pointe du domaine scientifique le plus fondamental semblait contredire l’existence même d’une réalité physique connaissable objectivement ».

 

Par bonheur, D.D. et A.E. constatent cependant que…

 

« … la situation s’améliore et l’on peut dire que c’est la physique qui a remis la philosophie sur les rails. Les gens veulent de toutes façons comprendre la réalité et nous dépassons enfin les limites fixées par des points de vue devenus néfastes ».

 

Il ne s’agit pas d’ailleurs de momifier la Mécanique quantique. Dans une perspective réaliste-rationaliste assumant ce que les marxistes nomment l’infinitude du monde (laquelle découle de son caractère mouvant et contradictoire), il ne saurait exister de barrière absolue au développement de nos connaissances, si ce n’est l’asymptote du réel lui-même (et non pas telle ou telle « doctrine définitive »). Son dépassement est envisageable et il…

 

« … nous permettrait, non seulement de faire évoluer la physique fondamentale, mais aussi sans doute d’envisager des techniques de calcul encore plus fascinantes. La théorie de « ce qui met la théorie quantique en défaut » ne peut être que prometteuse de sorte que, d’une façon ou d’une autre, il n’y aura pas de limite au savoir et au progrès ».

 

C’est notamment dans le domaine des relations entre mathématiques, logique et physique que MM. Ekert et Deutsch ouvrent une piste de recherche très excitante, non seulement scientifiquement, mais philosophiquement. Il s’agit de l’exploration des « nouvelles fonctions logiques » que permet la convergence des recherches en informatique et en physique quantique, notamment dans la perspective de la mise en chantier de l’ordinateur quantique. Parlant de l’étrange fonction logique « racine carrée de Non », nos brillants oxfordiens déclarent en effet :

 

« Le cas des nouvelles fonctions logiques illustre le fait que les progrès de la connaissance du monde physique entrainent aussi des progrès en logique et en calcul. Bien que les vérités mathématiques soient indépendantes de la physique, nous en acquérons souvent la connaissance en explorant des phénomènes physiques. Une démonstration mathématique est une suite d’opérations logiques. Donc ce qui est démontrable ou non dépend des fonctions logiques (telles que la fonction Non) que les lois physiques permettent de réaliser (…). Ces fonctions doivent être assez simples sur le plan physique pour que nous ne puissions douter de leur fonctionnement, et notre confiance sur ce point est enracinée dans notre connaissance du monde physique. Puisqu’elle ajoute au répertoire des opérateurs logiques disponibles de nouvelles fonctions, telle la racine carrée de Non, la physique quantique permettra aux mathématiciens de franchir des barrières que l’on supposait exister dans le monde des abstractions pures. En d’autres termes, la physique quantique permettrait aux mathématiques de repousser leurs limites ».

 

Non seulement cela signifie un rapprochement très intéressant entre les ‘sciences formelles’, la logique et la mathématique, et les sciences expérimentales de la nature (il est plus ordinaire que les mathématiciens ouvrent la voie aux théories physiques de pointe qui souvent « appliquent » à la réalité des « modèles », des constructions géométriques, des formules algébriques construites en amont…), mais cela comporte la possibilité pour le physicien-prospecteur d’extraire du « formel » du sein même de l’objet physique. Et pas n’importe quel « formel » puisque l’énigmatique expression « Racine carrée de Non » vaut évidemment… son pesant de dialectique ! De dialectique matérialiste ajouterons-nous, puisque la possibilité d’introduire dans la logique elle-même ce surcroît de négativité « puissancée » vient directement de l’étude directe de la matière et que l’on ne saurait accuser, sans beaucoup de mauvaise foi, d’affreux marxistes jdanoviens d’avoir importé en contrebande cette étrange fonctionnalité logique dans leur interprétation crypto-hégélianisante de la nature. Tous les marxistes qui se souviennent de l’invitation de Marx, puis de Lénine, à réécrire « en matérialistes » la Grande Logique de Hegel ne peuvent que s’émerveiller à la lecture de telles lignes : pour pasticher un titre célèbre de Kant, nous dirons qu’elles lancent un appel à introduire en logique le concept de fonction négative, et ce faisant, à pressentir encore un peu plus l’existence d’une dimension ontologique forte (assumée par Hegel, mais aussi déjà, à vrai dire, par Aristote) de la logique tout en assumant de façon croisée la dimension logique, dialectique, d’une ontologie matérialiste entée sur la physique en mouvement.

 

·           Au centre de l’approche ontologico-dialectique, la dialectique du discret et du continu en microphysique

 

Nous ne conclurons pas ce passage sans noter que la dialectique est indispensable pour penser rationnellement la théorie physique dans la mesure où, à chaque pas, on tombe sur la contradiction cruciale, qu’il faut absolument dialectiser, entre l’approche continuiste et l’approche discrète du champ microphysique (et du champ cosmogonique). En cosmologie, la grande unification de la gravitation et des autres forces fondamentales, donc de la Relativité (continuiste et locale) et de la physique des quanta (non locale et discontinuiste) doit-elle s’accomplir à la lumière d’une théorie cordaire, qui « étend » les particules et qui fait d’elles autant de vibrations de « cordes » minuscules, ou bien faut-il opter, avec la Gravitation quantique à boucles et les théories cosmologiques du Grand Rebond qui lui sont liées, pour une conception granulaire, donc discrète, de l’espace lui-même ? En microphysique et en physique générale, faut-il universaliser l’approche quantique et dire, avec M. Vladko Vedral, d’Oxford lui aussi, que…

 

« … le monde est quantique à toutes les échelles »,

 

… que…

 

« … pour un expert en théorie quantique, la physique classique est la version en noir et blanc d’un univers en couleurs »,

 

… et que cette tendance théorique, exacerbée par M. Vedral, à tout quantifier, donc à généraliser l’approche discontinuiste à toute la physique est expérimentalement corroborée par le fait que…

 

« … les physiciens ont créé de l’intrication au sein de systèmes toujours plus grands et à des températures de plus en plus élevées »,

 

… ou bien faut-il plutôt considérer, comme le proposent à l’inverse le théoricien David Tong, que…

 

«  … malgré le succès actuel de la théorie atomique, elle devra être à terme abandonnée au profit de l’hypothèse d’une matière continue » (p. 74), car…

 

« … les éléments fondamentaux de nos théories ne sont pas des particules mais des champs : des objets continus, semblables à des fluides, qui occupent tout l’espace (…). Les objets que nous nommons des particules élémentaires ne sont pas fondamentaux, ce ne sont que des modes d’oscillation de champs continus ».

 

Et D. Tong présente de forts arguments à l’appui de son continuisme généralisé puisqu’il note que l’équation de Schrödinger, qui régit toute la physique quantique,

 

« … ne contient que des grandeurs continues, et pas d’entiers. En d’autres termes, les entiers ne sont pas des hypothèses de la théorie, comme le pensait Bohr, mais des conséquences. Les entiers sont des exemples de ce que les physiciens appellent une quantité émergente. Dans cette perspective, le terme de mécanique quantique est impropre, la théorie ne contient pas de quanta (c’est-à-dire des quantités discrètes) dans sa formulation. Dans les systèmes tels que l’atome d’hydrogène, les processus décrits par la théorie engendrent du discret à partir de la continuité sous-jacente ».

 

En outre, précise D. Tong, les particules elles-mêmes se transforment continûment et il est difficile…

 

« … d’obtenir une précision mathématique quand les particules interagissent. En effet, ces dernières se transforment : un neutron peut se scinder en un proton, un électron et un neutrino. Devrions-nous alors considérer que nous avons alors affaire à une, trois ou quatre particules ? L’affirmation de l’existence de trois sortes de neutrinos, de six sortes de quarks, etc., est un artifice dû à la non-prise en compte des interactions de particules ».  

 

Enfin, argument-massue qui ne laissera pas indifférents des matérialistes, depuis plus de quarante années que l’on s’y évertue, nul n’a vraiment réussi à simuler sur ordinateur, avec de la logique binaire et des bits discontinus (comme il se doit en informatique), le modèle de référence (dit « standard ») et ses équations continues. Par ex., la chiralité des fermions est la clé de voûte du modèle de référence : or elle est irréductible à un modèle discret : surtout, d’après le réaliste Tong, c’est la nature continue des objets qui résiste, ô combien réellement, à la simulation numérique, nécessairement discrète. Si bien que…

 

« … nous savons manipuler toutes sortes de fermions hypothétiques, mais pas ceux qui existent en réalité » (p. 78).

 

En résumé, conclut plaisamment D. Tong,

 

« … nous n’habitons pas une simulation numérique ! ».

 

Il est toutefois suffisamment beau joueur pour reconnaître que…

 

« …  même si nos théories actuelles supposent que la réalité est continue, beaucoup de nos collègues physiciens pensent malgré tout qu’une réalité discrète est sous-jacente. Ils mettent en avant des exemples montrant comment la continuité peut émerger de la quantification ».

 

·         Retour sur l’heuristique réaliste, rationaliste et dia-matérialiste de Louis de Broglie.

A propos de la dialectique ontologique du continu et du discret

 

« J’avais pensé mettre en exergue du présent exposé la curieuse phrase suivante : « La source désapprouve presque toujours l’itinéraire du fleuve ». En effet, Planck, Einstein, Schrödinger et moi-même n’avais-nous pas toujours désapprouvé la façon dont ont été interprétées la physique des quanta, la coexistence des ondes et des particules et la mécanique ondulatoire, ces fleuves immenses qui ont pris leur source dans nos travaux ».

Louis de Broglie, Un itinéraire scientifique, p. 167

 

Pour surmonter cette cuisante antinomie de la physique, il n’est peut-être pas superflu de méditer l’exemple méthodologique, mais aussi d’entendre enfin l’appel, du dialecticien-né qu’était Louis de Broglie, et cela par-delà le sort que l’évolution scientifique a réservé à ses hypothèses spécifiques dans le domaine de la physique des particules (« onde à bosse », « double solution », etc.) :

 

·         Son exemple d’abord, car le père de la Mécanique ondulatoire, qui eut le génie d’unifier lumière et matière au point de faire onduler toute la matière, a toujours souhaité…

 

« … réaliser une synthèse générale, applicable à la matière comme à la lumière et reliant par des formules où figurait nécessairement la constante h de Planck, les ondes et le corpuscule indissolublement liés l’un à l’autre ».

 

·         Son appel enfin, car ce grand héritier de Fresnel n’aura voulu, ni « choisir » entre l’onde (continue) et le corpuscule (discret, trop discret !), ni surajouter le corpuscule au champ, mais les comprendre dialectiquement l’un à partir de l’autre. Parlant de son ami Einstein, de Broglie précise que son attitude ne consistait nullement à… 

 

 « … nier l’existence des corpuscules : il avait trop contribué lui-même au succès de la théorie atomique de la matière pour ne pas savoir mieux que tout autre que l’existence du corpuscule est un fait incontestable. Mais il pensait que le corpuscule n’est pas un élément qui se surajoute au champ, pour ainsi dire de l’extérieur, qu’il doit bien plutôt appartenir à la structure même du champ et en constituer une sorte d’anomalie locale. Pour lui, les champs réalisés dans la nature (qu’ils fussent gravifiques, électromagnétiques ou autres) devaient toujours comporter de très petites régions où les valeurs du champ deviendraient extrêmement grandes et qui répondraient à notre notion usuelle de corpuscule. On a donné à ce type de champ le nom expressif de « champ à bosse » (bunched field) ».  

 

Quel que soit par ailleurs le sort scientifique de la proposition de L. de Broglie en matière de « double solution » des apories quantiques, ne serait-il pas bénéfique de s’affranchir à la fois :

 

·         du double et mutuel exclusivisme continuiste ou discontinuiste, car il s’agit tout de même de savoir comment l’on passe du continu au discret (c’est-à-dire à la fois comment la continuité se rétablit au second degré entre le discret et le continu, mais aussi comment le continu lui-même produit des ruptures (les algébristes connaissent ces étranges ruptures de continuité dans l’étude de certaines courbes)),

 

·         mais aussi de la conciliation – jugée superficielle par Einstein et par L. de Broglie – qu’offre l’idée bohrienne de « dualité onde-corpuscule » : comme le dit encore le prince physicien,

 

« … pour moi, comme cela avait été aussi l’idée d’Einstein, il s’agissait, non pas d’une vague et peu compréhensible ‘dualité’, mais d’une véritable coexistence de l’onde et de la particule toutes deux présentes dans l’espace physique et intimement liées l’une à l’autre… » (ibidem, p. 154).

 

Cette ligne rationaliste porte une dimension franchement ontologique et réciproquement, toute ontologie physique à venir ne pourra se consolider qu’en prenant appui sur des bases profondément dialectiques : il s’agit en effet de savoir, non seulement comment il faut traiter intellectuellement les apories quantiques, mais aussi et surtout comment, par-delà les méthodes employées, le monde microphysique lui-même fonctionne et se configure : en un mot, il s’agit bien, dans la ligne matérialiste de Thalès de Milet et des premiers « Physiciens » grecs, de « comprendre la nature » : et c’est bien ce que cherchent manifestement à faire, par-delà leurs divergences, la totalité des auteurs, continuistes ou pas, que nous venons de citer. C’est pourquoi le dialecticien-né qu’était Louis de Broglie pouvait déjà en son temps esquisser, fort courageusement s’agissant d’un vieil homme, l’équivalent Discours de la méthode dia-réaliste à propos de l’indispensable synthèse microphysique à venir des approches discontinuistes/corpusculaires et continuistes/ondulatoires. Sans prétendre nous prononcer ici sur la validité ou pas des hypothèses scientifiques alors proposées par le Prince des physiciens, qu’il s’agisse de l’ « onde à bosse », de la « double solution », de l’idée d’un « milieu subquantique sous-jacent », de l’avènement d’une nouvelle mathématique non linéaire aidant la physique des quanta à surmonter ses embarras théoriques ou, plus généralement, d’un rapport différent, dé-fétichisé, décomplexé de la physique à la mathématique, ne regardons pour l’heure que la ligne philosophique de sa recherche scientifique, qui est proprement dia-réaliste et dia-rationaliste, franchement opposée au « commodisme » d’un Poincaré et offensivement hostile à l’idéalisme exacerbé de Bohr. Dans cet esprit, nous terminerons sur ce manifeste dialecticien de facture quasi-hégélienne qui figure dans l’une des ultimes conférences données par Louis de Broglie, et ce n’est pas un hasard, en vue de défendre l’utilité heuristique et pédagogique de l’histoire des sciences :

 

« A l’antinomie du continu et du discontinu correspondent en mécanique l’opposition du point matériel et du fluide continu, en physique, celle du corpuscule et du champ, en biologie, celle de l’évolution et de la mutation. Ainsi enfermée dans le cercle étroit de tendances et de concepts, la science théorique pourrait, au premier abord, paraître condamnée à tourner éternellement en rond, les différents types d’interprétation apparaissant, disparaissant et reparaissant tour à tour. Heureusement, ce jugement pessimiste n’est pas exact. Si les conceptions reparaissent, c’est comme enrichies d’aspects nouveaux s’appliquant à de plus vastes domaines de la réalité expérimentale, englobées dans des synthèses plus riches. Le progrès de la science n’est pas comparable à un mouvement circulaire qui nous ramènerait toujours au même point : il est plutôt comparable à un mouvement en spirale qui, périodiquement, nous rapproche de certains stades anciens, mais où les spirales vont sans cesse en s’agrandissant et en s’élevant ».

 

Loin de cautionner la mise en place d’une synthèse molle et éclectique, c’est bien d’une dialectique, c’est-à-dire d’une logique aussi dynamique que clairement et distinctement articulée qu’aurait besoin la nouvelle ontologie physico-rationaliste à naître puisque, précise encore L. de Broglie, qui balaye là les réconciliations faibles et sans concept,

 

« … il n’est pas exact de dire que l’un des phénomènes ne peut se produire qu’en l’absence de l’autre ; et il est encore plus faux de dire qu’il existe une même entité physique se présentant tantôt sous l’aspect corpusculaire, tantôt sous l’aspect ondulatoire » (ibid. p 164)

 

Il ne nous revient pas de dire dans quelle mesure, techniquement (mathématiquement et expérimentalement), l’hypothèse de-broglienne de l’ « onde à bosse » ou sa proposition de « double solution » auront on non réussi à concrétiser avec rigueur l’aspiration dialectique de l’initiateur principal de la Mécanique ondulatoire. C’est la ligne philosophique ô combien lumineuse de l’héritier de Fresnel que nous appelons saisir et à tenir ferme : celle d’une ré/ontologisation de la physique au prix d’un rééquilibrage du rapport entre maths et physique et d’une dialectique approfondie du discret et du continu, du corpuscule et de l’onde, de leurs mutuels et incessant passages de l’un  à l’autre, voire de l’un en l’autre. Entendons du moins l’appel émouvant du vieil homme qui, après avoir fougueusement participé centralement au lancement de la nouvelle physique émergent des années vingt, l’a vu dévier ensuite, philosophiquement parlant, vers l’idéalisme, l’immatérialisme, la mystique… et le quasi-interdit de « comprendre ». Nous savons certes que, faute d’avoir pu disposer de points d’appui théoriques et humains suffisants, lors du congrès de Solvay de 1926, le jeune théoricien Louis de Broglie s’est d’abord rallié de mauvais gré à l’Interprétation de Copenhague. Mais ses propres travaux ultérieurs l’ont progressivement convaincu qu’il aurait dû résister davantage, davantage faire front commun avec Einstein, Lorentz et Schrödinger, défricher des voies heuristiques inédites, repenser et dé-fétichiser à cette fin les rapports entre les mathématiques et la physique (en particulier, appeler au développement des approches non linéaires en maths), afin que fût pleinement relevé le défi initial que s’était lancé à lui-même le jeune physicien français :

 

« … réaliser une synthèse générale, applicable à la matière comme à la lumière, et reliant par des formules où figurait nécessairement la constante h de Planck, les ondes et les corpuscules indissolublement liés les uns aux autres ».

 

2°) A propos de l’ontologie quantique de Mmes Alexia Auffèves, Mme Naila Farouki et M. Philippe Grangier ou, du projet d’une interprétation ontologique (dialectique) de la physique quantique

 

Physicienne au C.E.A. de Grenoble, associée au physicien Philippe Grangier (CNRS et Institut d’optique de Paris-Sud) et à la philosophe Naila Farouki (C.E.A. de Grenoble), Alexia Auffèves part d’une exigence fort stimulante d’un point de vue dia-matérialiste :

 

·         d’une part, elle fait droit sans réserve au paquet de faits physiques étranges recensés par la théorie quantique : il faut acter sans retour l’inexistence des « variables cachées » prédites par Einstein (par leur mise en évidence, ce dernier voulait établir l’incomplétude de la théorie quantique) dont l’existence a été définitivement exclue par les expériences célèbres d’Alain Aspect ; en effet, précise Alexia Auffèves,

 

« … la physique quantique a prouvé son efficacité et toutes les tentatives pour en interpréter le formalisme en termes classiques ont échoué » (p. 20).

 

·         pour autant, les trois chercheurs français ne font pas de ce constat un argument antiréaliste ou néopositiviste en faveur de l’interprétation agnostique dite « orthodoxe » : retournant Bohr contre lui-même, ils sont déterminés à construire une ontologie quantique respectant le cadre contraint des faits les plus paradoxaux recensés par les Mécaniciens quantiques ; ce faisant, ils cassent, comme nous nous y efforcions déjà, philosophiquement parlant, dans le tome III du présent livre (publié en décembre 2016), le lien traditionnel existant, d’une part, entre réalisme philosophique et classicisme physique (suspicion jetée sur la non-localité, sur l’indéterminisme « probabilitaire », sur la « dualité » onde-corpuscule, adoption d’un continuisme de principe etc.), d’autre part entre « quantisme » assumé et agnosticisme, néopositivisme et empirisme logique (positionnements chers aux partisans de l’interprétation de Copenhague). Bref, l’erreur stratégique des physiciens réalistes-rationalistes comme Einstein, Schrödinger ou de Broglie/Vigier n’aurait-elle pas été d’avoir absolument voulu rabattre ce qu’Einstein appelait crûment « ces vilains quantas » sur les conceptions classiques, parmi lesquelles il fallait classer la Relativité générale (locale, continuiste, déterministe…), héritière critique, mais légitime, de la mécanique newtonienne ? N’était-ce pas là symétriquement une aubaine pour le parti agnostique et irrationaliste emmené par Bohr et par Heisenberg qui pouvaient alors, assez perversement d’un point de vue intellectuel, jouer le double jeu d’un réalisme expérimental brut de fonderie (« la nature est comme ça », « il n’y a rien de plus à comprendre ») et d’un non-réalisme philosophique raffiné (la nature est inconnaissable… à supposer que nos concepts physiques désignent bien une réalité extérieure à Messer l’Observateur…). A l’inverse, le trio contemporain Auffèves-Farouki-Grangier (A.F.G.) assume crânement le mot, si longtemps proscrit par le néopositivisme régnant, d’ontologie quantique, sinon encore celui, encore mille fois plus tabouisé, d’ontologie matérialiste ou dia-matérialiste. Schématiquement, écrit ainsi Alexia Auffèves,

 

« … notre stratégie consiste à déconstruire notre notion de la réalité, à reconnaître que nous sommes ‘pétris’ de classicité, et à reconstruire une notion de réalité qui, finalement, réhabilité Bohr en en faisant un réaliste (…). Aujourd’hui, avec la maturité acquise, nous sommes prêts à nous réapproprier la notion de réalité et à la revisiter, mais en tenant compte de la phénoménologie quantique » (p. 18-20).

 

Déjà le physicien réaliste grec Eftichios Bitsakis avait subtilement qualifié Paul Langevin de partisan du « déterminisme statistique ». Or le trio A.F.G. nous explique en effet que l’aspect probabilitaire de la théorie quantique n’est ni un pis-aller ni un échec de la mesure, mais une propriété ontologique, c’est-à-dire en bref intrinsèque et objective, des objets quantiques. Pour enfin « libérer le Chat de Schrödinger », il faut saisir une propriété centrale des objets quantiques, qui est leur comportement saltationniste :

 

« L’aspect aléatoire qui surgit lorsque je change le contexte expérimental est vraiment dû au postulat de quantification. C’est extrêmement satisfaisant de voir que l’une des caractéristiques essentielles de la Mécanique quantique – son aspect aléatoire – résulte d’une quantification. En d’autres termes, on remet la quantification au cœur de la Mécanique quantique ».

 

On peut alors déboucher sur une forme d’ontologie physique dite « C.S.M. » (Complexité, Système, Modalité). Il faut en effet, comme l’avait conseillé d’ailleurs dès longtemps le Grec E. Bitsakis, que le nouveau réalisme ontologique intègre sans complexe le contexte expérimental dont l’ancien réalisme prétendait faire abstraction et dont, à l’inverse, l’agnosticisme néopositiviste prenait prétexte (les fameuses relations d’incertitude interprétées de manière subjectiviste et « indéterministes ») pour, si j’ose dire, « gnoséologiser » la Mécanique quantique : en un mot, pour la subjectiviser en la coupant de toute forme d’ontologie quantique. En effet, précise encore Alexia Auffèves,

 

« … la transformation de la carte (sous-entendu : du système microphysique observé) en état devient possible à condition de prendre en compte, en plus du système étudié (le photon), le contexte expérimental (l’analyseur) »… (p. 19) ;

 

Le nouveau « postulat C.S.M. » disposera donc que…

 

« … en Mécanique quantique, l’état d’un système ne dépend pas que du système lui-même, mais aussi du contexte »…

 

… l’interaction physique du micro-objet analysé avec l’appareillage expérimental intervenant irréductiblement dans la mesure des phénomènes. Quant à l’ainsi-dite ‘modalité’, elle porte sur la variabilité d’état qui provient du rapport système/contexte et, précise encore Mme Auffèves, elle est totalement objective et reproductible :

 

« Ces modalités sont des réponses certaines, prédictibles et répétées à des questions posées dans un contexte donné. Ce premier postulat est en fait une reformulation des idées de Bohr en termes ontologiques » (p. 19).

 

Le second « postulat C.S.M. » stipule quant à lui que…

 

« … pour un système donné, le nombre de modalités est fini. En termes de questions et de réponses, ce postulat de quantification signifie que, pour un petit système quantique, le nombre de réponses qu’il peut fournir quel que soit le contexte, est fini et discret. Ce nombre est le même pour tous les contextes possibles et caractérise uniquement le système ».

 

A ce stade, nous produirons plusieurs remarques.

 

La première est que le réalisme quantique est, méthodologiquement parlant, une variante « physique » du réalisme dia-matérialiste. On n’ignore pas que dans ses Thèses ad Feuerbach (1846), Marx reprochait à la philosophie « classique », y compris au « matérialiste classique » allemand Ludwig Feuerbach, d’exclure du réalisme le point de vue de la pratique, ce qui, selon Marx, est le stigmate même d’un point de vue « spéculatif ». On sait aussi qu’à l’inverse, nombre d’auteurs marxistes « praxiques », soi-disant inspirés des Thèses ad Feuerbach et/ou de ce qu’il y a de plus fragile chez Gramsci, se sont réclamés du « point de vue de la praxis » pour déréaliser le marxisme, et pour, chemin faisant, forclore la dialectique de la nature et toute idée d’ontologie dia-matérialiste (voire toute forme « mécaniste » de matérialisme historique) rabattues sur l’épouvantail théorique du diamat jdanovien (sic). Le présent livre a réfuté en détail ces erreurs symétriques (matérialisme spéculatif et « praxisme »), mais le mieux est ici de donner à nouveau la parole au fin connaisseur de Marx qu’est le philosophe lusitanien José Barata-Moura, ancien recteur de l’Université de Lisbonne. Dans son article d’Etincelles déjà maintes fois cité, il explique en effet que…

 

 « … il faut donc que la pratique (die Praxis) reprenne son emplacement et soit exercée au milieu même des entrelacs dialectiques de la matérialité. Non pas comme une ‘valeur’ que, du dehors, on y ‘ajoute’, ou comme le concours fortuit, la Grâce – de contingences descendues d’ ‘ailleurs’, qui s’opposent et s’opposeraient à la ‘réalité’, mais en tant qu’une véritable texture dynamique qui frémit à l’intérieur de ‘ce qui est’, tout en en modelant le tissage ».

 

Et J. Barata-Moura de généraliser son propos à l’ensemble de la praxis humaine, sans que cela nous éloigne le moins du monde du propos plus spécifique d’Alexia Auffèves :

 

« Au juste, la pratique – en tant que catégorie marxiste – correspond à la figure humaine, matériellement transformatrice, de l’activité qui, au-dedans de l’histoire et de ses vicissitudes, travaille et retravaille le devenir de l’être depuis son tréfonds. Elle n’a rien d’une adjonction ‘étrangère’ (ou étrange), ni d’une survenance inessentielle » (p. 37).

 

En définitive, loin de masquer ou de « voiler » la réalité, comme l’a cru et écrit le physicien des particules Bernard d’Espagnat,

 

« … la pratique, négatrice et transformatrice de la positivité des conditions établies et subsistantes – est elle-même un processus immanent de révélation et de matérialisation des possibilités réelles (matériellement fondées, mais pas ‘automatiques’, par l’effet d’une ‘providence’ tutélaire quelconque) que l’être au devant de chaque existence dédouble et pro/jette » (p. 38).

 

Revenant plus directement au propos de Mme Auffèves après ces indispensables remarques doctrinales (quoique non doctrinaires !), nous soulignerons que c’est au fond le « postulat de quantification », pour reprendre les termes de l’auteure, c’est-à-dire une propriété par excellence de l’objet quantique (débouchant sur le nombre fini de modalités du système) qui introduit ontologiquement l’aléatoire dans le système, et qui légitime objectivement le recours aux démarches probabilitaires : on est loin ici, comme on voit, de la double solution chère à Louis de Broglie. Si l’on préfère, le hasard n’est pas un défaut de notre connaissance, comme il l’était initialement chez Laplace quand celui-ci jeta les bases du moderne calcul des probabilités, il est au contraire l’effet objectif des propriétés « modalitaires » quantifiées de l’objet microphysique. Constatons au passage la force heuristique d’un positionnement ontologique en tant qu’il permet de saisir comme propriété des choses, et non comme un désolant « voilement de la vérité », ce que le marxiste grec Bitsakis appelait le déterminisme statistique des systèmes quantiques. Alexia Auffèves ne s’y trompe pas qui déclare sur un ton triomphal des plus réjouissant :

 

« L’aspect aléatoire qui surgit lorsque je change de contexte expérimental est vraiment dû au postulat de quantification. C’est extrêmement satisfaisant de voir qu’une des caractéristiques essentielles de la Mécanique quantique – son aspect aléatoire – résulte d’une quantification. En d’autres termes, on remet de la quantification au cœur de la Mécanique quantique » (p. 20).

 

Du même coup, Mme Auffèves et ses co-équipiers peuvent « libérer le Chat de Schrödinger » en montrant que, si l’on tient compte du principe C.S.M., bref, si l’on fait de la physique contextualisée, c’est-à-dire, soyons clairs, dialectique et matérialiste, et pas seulement des maths in abstracto, l’offensive aporétique lancée jadis par le grand savant autrichien pourrait bien être dénuée de sens, non seulement expérimentalement, mais théoriquement :

 

« Si l’on considère maintenant le Chat de Schrödinger, il est raisonnable d’admettre que l’on puisse décider avec certitude, dans le monde usuel utilisé comme contexte, si le chat est mort ou vivant. Mais quel serait le contexte dans lequel on pourrait décider avec certitude que le chat est ‘à la fois’ mort et vivant dans le même sens qu’un photon polarisé à 45° est à la fois’ H et V ? On peut certes écrire des formules mathématiques, mais ces formules sont dénuées de sens en l’absence d’un contexte où elles seraient des modalités ».

 

Non seulement le contenu ontologique objectivement dialectique des propos de Mmes Auffèves et Farouki et de M. Grangier s’affiche avec éclat à travers les notions de Modalité, de Contexte et de Système, mais Alexia Auffèves n’est pas loin, inconsciemment ou malicieusement, de donner un discret coup de chapeau au… dialecticien Hegel quand, peut-être inspirée par sa collègue philosophe, elle déclare plaisamment à propos du nouveau réalisme microphysique qu’elle prône :

 

« Le réalisme et l’antiréalisme sont un peu la thèse et l’antithèse d’une dissertation de philosophie. Nous proposons une synthèse où le reproche fait à Bohr de ne s’occuper que des résultats de l’expérience sans creuser la nature de la réalité, est infondé » (p. 18). 

 

Il s’agit donc, en un sens, de donner tort aux réalistes classiques, non pas en reniant le réalisme, mais en renonçant au classicisme. Et si, de fait, les « classiques » avaient manqué malgré eux, non seulement à la dialectique et au matérialisme… mais au réalisme lui-même – lequel commande d’embrasser la réalité, rien que la réalité, mais toute la réalité – en s’accrochant désespérément à une forme datée du réalisme, en cultivant à l’excès le continuisme (et non pas la dialectique du continu et du discret) et le nécessitarisme (et non pas la dialectique du nécessaire et du contingent…), en restreignant le déterminisme à sa forme laplacienne, en pensant la localité dans un cadre géométrique trop balisé, en n’appelant pas à modifier en profondeur les relations, tantôt trop fusionnelles, tantôt trop parallèles, des maths et de la physique, et aussi, ajouterai-je pour ouvrir au point 3° du présent Appendice, au nécessaire rapprochement de la microphysique et de la cosmologie en mouvement ?

 

Pourtant, la défaite historique confirmée d’Einstein et le triomphe des « vilains quantas » n’aurait pas de quoi réjouir pleinement les adeptes agnostiques et immatérialistes de son vieux rival danois : car le prix posthume qu’une nouvelle ontologie quantique pourrait imposer aux mânes de N. Bohr, si enclin au subjectivisme, à l’immatérialisme et à l’agnosticisme (si ce n’est, dit-on, à la mystique bouddhiste), est encore plus lourd que celui qu’elle ne manquerait pas d’infliger aux tenants du réalisme classique : pour gagner son bras de fer historique avec les réalistes classiques Einstein, Podolski, Rozen, Schrödinger ou de Broglie, les tenants de l’interprétation « orthodoxe » se sont-ils pas sommés de changer de camp et de rallier volens nolens une nouvelle ontologie rationnelle et dialectique du micro-monde matériel ?

 

3°) L’ontologie dia-matérialiste, un moyen pour dépasser le faux choix entre réalisme néo-classique et « nouvel esprit scientifique » idéaliste ? Suite.

 

Nous avons montré dans le courant du présent chapitre sur les sciences cosmo-physiques qu’il existe plusieurs manières de défendre des positions matérialistes dans le champ scientifique, et plus spécialement dans celui des sciences de la nature. Longtemps, les physiciens et cosmologistes matérialistes, comme le Français Jean-Pierre Vigier, le Soviétique Victor Ambartsumian ou le Grec Eftichios Bitsakis, ont pensé qu’il fallait refuser frontalement le big-bang en cosmogonie ou les étrangetés attribuées à la Mécanique quantique. Ces physiciens ont notamment cherché, dans la foulée d’Einstein, Podolski et Rozen, à prouver l’incomplétude de la Mécanique quantique et la présence de « variables cachées » permettant d’interpréter de manière déterministe, « locale » et classique (« Dieu ne joue pas aux dés ») le comportement d’allure si fantasque des particules. Plus prudemment, Louis de Broglie avait proposé, sans grand écho semble-t-il, l’hypothèse conciliatrice d’une « double solution » associant le déterminisme probabiliste du modèle standard à l’idée plus classique d’une « onde à bosse » visant à concilier de manière réaliste l’idée d’onde avec celle de corpuscule et à articuler chemin faisant les aspects continuistes et discrets de la Mécanique ondulatoire (L. de Broglie préférait cette appellation, moins partiale à ses yeux). Philosophiquement parlant, nous nous garderons de rejeter a priori cette orientation néo-classique qui, conceptuellement, se veut fidèle à la ligne rationaliste-réaliste du matérialisme dialectique, dans la mesure où son très noble but est de combattre le créationnisme, l’irrationalisme et le « néo-magisme ». Il revient du reste à la science, et plus spécialement à l’observation et à l’expérimentation (quand elle est possible), de trancher souverainement entre les stratégies scientifiques rivales, le philosophe matérialiste ayant moins à « choisir » prétentieusement entre les hypothèses rationnelles et potentiellement dia-matérialistes, qu’il n’a à mettre en garde contre les hypothèses tendanciellement obscurantistes : or, avouons-le, les deux modèles respectifs « standards » (en bon français on devrait dire de référence…) de la cosmologie et de la microphysique ont largement été corroborés par les observations et autres expérimentations, que ce soit celui du big-bang, étayé notamment par la découverte inopinée du rayonnement universel fossile, ou par les observations cartographiques sensationnelles de l’univers primitif réalisées à partir des télescopes orbitaux (type Hubble), ou que ce soit celui de la Mécanique quantique, conforté par les subtiles expériences d’Alain Aspect (coupant court semble-t-il à l’existence de « variables physiques cachées ») ; sans parler de la découverte, au moyen du Grand Collisionneur de Hadrons du CERN du boson dit de Higgs, l’une des prédictions les plus « sensibles » du modèle de référence en matière de microphysique.

 

Dia-matérialiste d’esprit, mais résolument « non classique », la seconde orientation nous paraît philosophiquement plus engageante; elle consiste, non pas à attaquer frontalement les deux modèles de référence au nom des intérêts supérieurs de la Raison, mais à les dégager de la gangue parasitaire de mysticité dans laquelle les enferme l’agnosticisme prétendument « positif ». Déjà l’Abbé Lemaître avait refusé de plaire au Pape de l’époque, son supérieur hiérarchique en Eglise, en assimilant frauduleusement l’idée du big-bang (ou plus exactement, l’hypothèse cosmogonique de l’Atome primitif) à un avatar scientifique de la Création biblique ; nous avons vu en outre que dans les conceptions couplées de la Gravitation Quantique à Boucles (initialement ancrée dans le champ microphysique) et du Grand Rebond cosmologique (exploré par des théoriciens tels que l’Allemand M. Bojowald, l’Italien C. Rovelli et le Français A. Barrau), le big-bang abandonne son travestissement créationniste de point-origine absolu et qu’il se révèle au contraire comme un moment, un seuil, un état-limite du devenir cosmogonique. Les deux conceptions que nous venons d’examiner dans ce point (B-2°), celle de MM. Ekert et Deutsch et celle de Mmes Auffèves et Farouki, réalisent une forme de révolution copernicienne en matière d’approche rationaliste/réaliste des théories cosmo-physiques modernes : loin de les invalider ou, si je puis dire, d’en gommer les bizarreries apparentes et contre-intuitives, elles assument pleinement ces bizarreries, elles refusent totalement de les estomper au second degré en les rabattant sur un non-réalisme de principe (= l’agnosticisme néopositiviste de Copenhague) ; bref, elles rejettent fermement cette ridicule et très paternaliste « tendresse pour les choses » que moquait déjà Hegel, comme si la foisonnante rationalité du réel était moins capable que notre incomplète « rationalité » routinière de soutenir la contradiction dialectique : trêve de « tendresse pour les choses », comme eût dit Hegel : il vaut mieux assumer rationnellement et « réalistiquement », tel serait le vrai défi actuel, la non-localité, l’indétermination relative des particules, les noces improbables de la continuité et de la discrétion, le jeu fluctuant du vide, du virtuel et du réel proprement dit, et oser enfin, au moyen de la dialectique matérialiste, les interpréter ontologiquement, et non pas, au choix, les dénier pour (prétendument) « rester fidèle aux Lumières », ou bien les « subjectiviser » pour les rendre à jamais incompréhensibles à la manière du néopositivisme « logique » : voilà pour le champ microphysique en tant qu’il est distinct du champ cosmologique. Et dans ce dernier domaine, il faut assumer l’extraordinaire plasticité, voire le franc exotisme parfois, des notions de temps, d’espace, d’espace-temps, de matière, d’énergie, de vide, bref, « monter en généralité » dans l’étude de ces notions de manière à porter centralement la dialectique de l’être et du néant au cœur de notre relecture matérialiste du monde : pas plus que l’immense matérialiste Lucrèce célébrant et anticipant ces immenses « bizarreries » qu’étaient, pour les contemporains, la pluralité des mondes, l’existence probable de vivants extraterrestres, l’originelle génération spontanée du vivant à partir de la matière inerte ou l’évolution des espèces, nous autres, matérialistes et rationalistes modernes ne devons pousser des cris d’orfraie aux mots de téléportation quantique, de contingence relative de certains phénomènes microphysiques, de fluctuations du Vide, de Multivers, de « racine carrée de Non », comme nous l’avons d’ailleurs montré sans cesse au fil du présent livre : et en cela, nous devons rester fidèle à Engels (« à chaque découverte faisant époque, le matérialisme doit changer de forme »), ou à Lénine, qui comprenait dès 1908, alors que tant de spécialistes de physique se crispaient sur l’ancienne physique ou dérapaient piteusement dans la mystique immatérialiste, que « l’électron est aussi inépuisable que l’atome », que l’énergie est matérielle, etc. Si nous trouvons cette voie plus engageante philosophiquement, ce n’est pas seulement parce qu’elle est heuristiquement très excitante, c’est aussi parce qu’elle appelle les philosophes à bouger considérablement leurs catégories afin de comprendre le réel rationnellement, ce qui signifie à la fois résister à l’agnosticisme décourageant et aussi bouger notre logique, ou, pour le dire de manière inadéquate mais utilement provocante, hégélianiser la physique tout en retravaillant logiquement, sans perdre l’exigence… logique de cohérence et de systématicité ouverte, la logique philosophique elle-même et ses catégories à partir des exigences empiriquement fondées de l’ontologie physico-cosmologique : exactement ce qu’appelait à faire Marx quand il indiquait dans Le Capital que le renversement matérialiste de la Logique idéaliste de Hegel n’était au fond que le début d’un travail productif : celui qui consiste à réécrire ladite logique.

 

Encore une fois, le fait que ce travail logico-catégoriel soit philosophiquement très excitant ne signifie pas que cette voie, celle d’une ontologie dia-matérialiste « non classique » l’emportera totalement, sur le plan proprement scientifique, sur la voie « néo-classique » que nous avons lapidairement évoquée ci-dessus : c’est aux scientifiques et à eux seuls, ou plus exactement, c’est au réel de trancher par la « réponse » bien involontaire qu’il apportera aux questions acérées posées par les expérimentateurs et par les astronomes observateurs. Mais du point de vue de la déontologie philosophique, il vaudrait mieux que le philosophe s’attendît à devoir retravailler ses conceptions logico-catégoriales, à « monter en généralité » dans leur étude (même exigence pour le mathématicien) pour aider les scientifiques à construire la nouvelle ontologie dia-matérialiste en gésine, plutôt qu’à les sommer sans cesse de « rentrer dans les clous » du matérialisme classique hérité du travail des générations antérieures. En bref, le matérialisme dialectique devra se retravailler lui-même – il devra « changer de forme » (Engels) s’il veut concrètement aider la physique/cosmologie contemporaine à sortir de l’agnosticisme paresseux (et de son incroyable refus têtu de comprendre !) à accoucher d’une ontologie dia-matérialiste de nouvelle génération. De ce point de vue, la collaboration de deux physiciennes et d’une philosophe, Naila Farouki, à la (re-)constitution d’une nouvelle ontologie scientifique, est d’excellent augure. 

Nous conclurons ce point II en évoquant le numéro 470 de Pour la science (sept. 2017) dont les deux articles-phares, l’un écrit par Yasunori Nomura, qui dirige le Centre de physique théorique de l’Université Berkeley (Californie), l’autre résultant d’un entretien avec Sébastien Renaux-Petel (Institut astrophysique de Paris) examinent, chacun pour son compte, les liens possibles de l’inflation cosmique avec la formation d’un Multivers incluant une infinité de sous-univers dont chacun disposerait de ses lois physiques propres. Peu nous importe à vrai dire ici la consistance ontologique propre de l’hypothèse fort spéculative (au stade actuel) proposée par Nomura dans la foulée d’Hugh Everett : il est à dire vrai assez choquant de penser que la moindre mesure microphysique effectuée sur Terre, donc par hypothèse, dans notre sous-univers, est associée à l’émergence d’un autre sous-univers où serait vérifiable une mesure autre que celle mesurée dans notre univers de manière à maintenir en toutes circonstances la superposition quantique et sa nature probabiliste. Bref, l’électron ne « choisirait » pas de passer par tel ou tel itinéraire pour frapper sa cible, il passerait à la fois par les deux voies, bien que dans deux univers différents. Si bien que la complémentarité quantique prendrait une signification ontologique, voire ontogénétique, et que la nature probabiliste du déterminisme quantique s’emplirait d’une signification réaliste, quoique vertigineuse, sans précédent (à l’encontre de toute interprétation subjectiviste et « agnostique »).  Ce qui nous importe ici, du moins au stade actuel de notre réflexion épistémologique, relèverait plutôt de ce que nous appellerons la méthodologie de l’ontologie matérialiste en voie de constitution. En effet, Y. Nomura va dans le sens d’une unification majeure de la microphysique quantique et de son arsenal théorico-expérimental (superposition d’état, décohérence, téléportation quantique…) et de la cosmologie, sous la houlette il est vrai, de l’approche quantique. L’hypothèse proposée est en effet que…

 

« … le scénario cosmologique d’un univers en éternelle inflation serait mathématiquement équivalent à l’interprétation des ‘mondes multiples’ de la physique quantique. Cette idée est très spéculative, mais, comme nous le verrons, une telle connexion entre les deux théories donne des pistes pour résoudre le problème des prédictions, mais pourrait aussi révéler des informations surprenantes sur l’espace et le temps » ;

 

… en d’autres termes,

 

« … l’état quantique représentant un espace en perpétuelle expansion est une superposition de mondes correspondant à des univers différents. On commence à entrevoir le rapprochement avec l’interprétation des mondes multiples de la physique quantique » (p. 33).

 

Comme on voit, les ressources d’une démarche ontologique couplant la microphysique et la cosmologie, soit pour réduire les paradoxes quantiques (téléportation, non-localité) en partant de concepts relativistes (trous de ver, trous noirs connectés), soit à l’inverse pour concevoir la cosmogénèse (dialectique de l’inflation infinie et de la formation d’univers-bulles finis) à partir de l’arsenal conceptuel quantique, n’ont pas fini de surprendre ; et c’est à ce titre, que, tout en restant fort sceptique sur l’esprit de l’interprétation proposée (du moins dans les termes qui sont présentés dans Pour la science : cf notre note infrapaginale n°845), nous tenions à signaler cette nouvelle manifestation des convergences épistémiques ontologiques et d’esprit réalistique, sinon franchement matérialiste, qui forment le thème du présent Appendice. 

 

III – Convergences épistémiques tendancielles et renaissance de l’ontologie dia-matérialiste

 

Quitte à approfondir le propos si besoin, nous nous contenterons de rappeler ici un certain nombre d’évolutions épistémiques de fond qui, en poussant la physique des particules et la cosmologie-cosmogonie à converger, voire à fusionner, et en restructurant en profondeur le rapport entre les maths et les sciences physiques (en rendant si l’on ose dire, leur coopération plus « intime », moins extérieure), travaillent souterrainement à faire émerger une ontologie matérialiste de type nouveau. Ce redéploiement épistémique aux effets potentiellement sismiques ne concerne pas que les rapports entre cosmologie et physique de l’infime, entre approche structurelle et approche « historique » de la matière, entre sciences de la nature et sciences « formelles », entre, si j’ose dire, logique de la matière et matière de la logique : en redistribuant la classification dynamique des sciences (laquelle constitue, comme nous l’avons vu dans notre tome II, le socle d’une recherche philosophique scientifiquement légitime), le bouleversement épistémologique en cours tend aussi à remodeler, sinon à redéfinir, la philosophie elle-même : pas seulement dans ses approches et dans ses contenus, mais aussi et surtout dans son statut théorique et dans son mode d’articulation aux ainsi-dites « sciences positives ». En effet, le travail sur les catégories logiques les plus universelles, qui constitue depuis les Grecs le chantier principal, voire la chasse gardée de la philosophie, converge objectivement de plus en plus avec l’exploration par les sciences cosmo-physiques de ces universels concrets et tendanciellement (voire déjà partiellement) « empiriques », accessibles à l’observation si ce n’est à l’expérimentation, que deviennent peu à peu, ou du moins, peuvent devenir à terme l’« univers », le ou les « élément(s) », par ex. les nucléons disposés dans les noyaux atomiques (dont on se représente les diverses formes), etc. ; si bien qu’il n’y a rien d’étonnant à ce que des scientifiques de pointe contemporains, qui croisent à tout instant dans leur pratique scientifique même des notions d’une extrême extension ontologique (univers/multivers, particule fondamentale, interactions fondamentales, espace(s), temps, vide, etc.), jadis accaparés par les métaphysiciens, soient littéralement, et très légitimement happés par la réflexion philosophique. A l’inverse, la philosophie dia-matérialiste de l’avenir se voit plus que jamais contrainte de s’élaborer au plus près des sciences, pas seulement de leurs méthodes et de leurs appareils conceptuels, mais de leurs résultats et du sens général qu’ils sont amenés à prendre quand on les situe dans le tableau scientifique d’ensemble de la réalité physique qu’ils dessinent objectivement (même si, bien évidemment, d’immenses vides et « pointillés » subsistent : nous pointons une tendance). Il ne s’agit nullement là du retour du scientisme (et encore moins d’un positivisme), au sens ancien de ce terme qui désignait surtout naguère l’aspiration naïve de certains savants, soit à se passer de philosophie (comme certains citoyens naïfs s’imaginent « ne pas faire de politique »), soit à faire de la science, à leur insu, un substitut bancal de philosophie ; d’abord parce que la philosophie doit penser « ce qui est » (Aristote, Hegel) en le rattachant au (non-)sens général de ce que Teilhard de Chardin nommait le phénomène humain : une exigence qui rend incontournable la méditation (et l’engagement) politique, éthique et esthétique, voire « eschatologique » (sit venia verbo) que ne fournissent, ni ne peuvent du reste spontanément fournir, les « sciences positives » ; mais symétriquement, lorsqu’il s’agit d’une philosophie dia-matérialiste, ce sens ne saurait tomber du Ciel ou résulter de l’on ne sait quel arbitraire subjectif, dogmatique ou « existentiel » : l’homme n’étant pas, comme l’a dit Spinoza, un « empire dans un empire », mais un chaînon, si modeste soit-il, du devenir global de la nature-univers, ce sens général des pratiques humaines ne peut être objectivement saisi que par une considération d’ensemble du devenir de la nature et de sa dialectique générale, si ramifiée et si cahoteuse soit-elle, ainsi que l’ont dès longtemps compris Engels d’un point de vue matérialiste, et Teilhard d’un point de vue spiritualiste. N’empêche : si l’universel concret peut être approché, si peu et si tendanciellement que ce soit, d’une manière empirico-observationnelle, et si à l’inverse les sciences empiriques sont conduites par leurs propres recherches à sortir du pointillisme méthodologique et à embrasser des questions de plus en plus vastes, si par ailleurs les sciences de la forme (logique, mathématique) sont amenées à une coopération de plus en plus intime avec les sciences de la matière considérée stricto sensu.

 

A – Rappel général de l’impact philosophique de la fusion tendancielle de la physique des particules et de la cosmologie

 

·         Emergence de l’objet « matière-nature-élément » : effets ontologiques et épistémologiques. 

 

Au début du chapitre X, nous avons montré en détails que, pour des raisons méthodologiques autant qu’ontologiques, la physique des particules est amenée à « croiser » à tout moment, au sens que les éleveurs donnent à ce mot, les recherches de la cosmologie et les investigations de la microphysique. D’abord pour des raisons expérimentales : les très hautes énergies à partir desquelles surgissent et évoluent nombre d’objets microphysiques ne sont guère accessibles sur Terre à partir des moyens techniques disponibles ; leur appréhension scientifique oblige à passer, tantôt par l’observation d’objets microphysiques provenant du fin fond du cosmos, par ex. de certains neutrinos très primitifs (sur le plan cosmogonique), ou à l’inverse, de prendre appui sur l’étude d’objets astrophysiques géants, étoiles à neutrons, trous noirs, etc.. Pour des raisons ontologiques et « historiques » également, puisque, si l’on veut saisir la nature des objets microphysiques, particules, noyaux, atomes, champs, interactions, rapport entre vide et substance matérielle, voire cadre (ou absence de cadre ?) spatio-temporel, il faut enquêter sur leur formation au cours de la cosmogénèse : car pas plus que l’on ne peut étudier abstraitement le fonctionnement des vivants sans fixer la place qu’ils occupent dans l’évolution biologique, il n’est possible de saisir, par ex., comment unifier les interactions fondamentales (donc aussi comment elles se sont différenciées dans le temps), ou pourquoi la « matière » l’a emporté sur l’ « antimatière » dans le cours de la cosmogénèse (c’est la problématique des ruptures de symétrie…), ou comment s’est formée la supposée « matière noire », donc d’unifier la théorie physique, sans se demander comment les forces et autres éléments physiques ont émergé et se sont différenciés et/ou recombinés au cours de l’histoire de l’Univers. Bref, le fonctionnement transhistorique, structural et « synchronique » de la matière, dont semble exclusivement s’occuper la physique, est in-décryptable si l’on n’étudie pas aussi l’ « histoire » de l’Univers, qui est l’objet propre de la cosmogonie. La réciproque vaut puisque, déjà dans l’ouvrage cosmogonique fondateur de Lemaître, il s’agissait de comprendre l’expansion de l’Univers, ou plutôt, de l’espace dudit Univers, comme celle d’un « atome primitif » se décomposant sous l’effet de la radioactivité et de la nécessaire dégradation des éléments lourds en éléments plus légers, la physique et la cosmologie se rejoignant dans une sorte de Méta-Chimie du tout. Mieux encore, quand les cosmologistes étudient le big-bang, et plus encore quand certains d’entre eux voient en lui un grand rebond (aspect historique, cosmogonique) explicable à partir de la Gravitation quantique à boucles (aspect structural et microphysique), il leur faut remonter vers un état matériel singulier et hautement exotique (du moins par rapport aux habitudes des « Persans » du cosmos que nous sommes) dans lequel l’élémentaire et l’universel (mieux vaudrait dire peut-être l’Elémental et l’Universal) tendent à fusionner et où les propriétés formelles, géométriques, voire topologiques de l’espace ou de ce qui en tient lieu, dessinent la dynamique de l’univers et jusqu’à la signification du mot temps et à l’émergence réelle de ce que ce mot désigne ordinairement. Le physicien G. Cohen-Tannoudji parlait naguère dialectiquement de Matière-espace-temps : peut-être pourrait-on parler dès lors de matière-espace(s)-force(s) ?

 

Tout cela donne le vertige, certes, mais celui-ci résulte, si j’ose dire, d’un enthousiasme de la raison, voire d’un enthousiasme de raison, à l’opposé tout à la fois de ce que comportait de dédain « criticiste » la critique kantienne de l’ « enthousiasme » intempérant d’un Shaftesbury, et du sombre « effroi » que ressentit jadis Pascal devant la glaciale infinité des cieux infinis vidés de toute espèce de présence divine. On est alors plus proche, émotionnellement parlant (mais y a-t-il pensée sans quelque excitation bien tempérée de l’esprit ?), de ce que d’aucuns ont appelé le matérialisme enchanté d’un Diderot, si plaisamment, voire si érotiquement perceptible dans Le Rêve de D’Alembert

 

Avant de poursuivre, notons que l’opérateur « logique » du rapprochement entre ontologie scientifique de la nature et logique philosophique des catégories ne résulte pas du seul apport des scientifiques : la philosophie a largement « fait sa part » si l’on ose dire puisque, comme nous l’avons vu à plusieurs reprises dans le tome II de Lumières communes (sur la théorie dia-matérialiste de la connaissance), la logique historico-dialectique rend compte de la manière dont en droit, en général donc, le reflet cognitif peut « mordre » sur l’universel cristallisant sous la forme d’un objet principiellement empirique : le marxisme permet en effet de résoudre l’aporie signalée par Aristote dont un passage de la Métaphysique oppose l’existence, apanage des objets singuliers (dont la singularité échapperait aux généralisations conceptuelles), à la connaissance, dont le caractère généralisant ne pourrait trouver prise sur les objets singuliers en tant que tels (« il n’est de science que du général, d’existence que du singulier »). En réalité, on n’a pas à choisir entre l’universel abstrait (mais inexistante, voire imaginaire) du concept et la singularité concrète (mais présumée inintelligible) du réel. Du côté du sujet connaissant, la logique de la découverte scientifique pousse en effet, nous apprend Marx dans son Introduction à la méthode de la science économique, à passer de l’universel abstrait au « concret de pensée » (Gedankeskonkretum), que Marx nommait aussi « logique spéciale de l’objet spécial » et que Lénine appelait l’ « analyse concrète de la situation concrète ». Du côté proprement ontologique, c’est-à-dire du côté des choses telles qu’elles se déploient d’elles-mêmes indépendamment de tout sujet connaissant, la logique matérielle du développement de l’essence permet aussi que l’universel abstrait, le plus souvent dispersé et comme saupoudré en quelque sorte sur la multitude cas concrets qu’il unifie mentalement, « cristallise » sous la forme d’un objet singulier empirique qui permet alors à la science de monter d’un cran dans sa démarche synthétique : ainsi de la cristallisation de la valeur d’échange dans une marchandise singulière qui résume les autres et qui, du même pas, permet d’étalonner la valeur-travail en général, l’argent devenu monnaie : ce qui permet alors à l’économie, descriptivement approchée par Aristote dans La Politique, de devenir une science conceptuelle et explicative à part entière avec Smith, Ricardo et Marx lui-même. On peut aussi parler du nombre, cet « argent de l’esprit » selon Marx, qui étalonne la quantité (discrète ou pas…), ou de l’ADN en génétique, etc. Dans le domaine qui nous occupe, celui de la convergence pré-fusionnelle entre cosmogonie et physique de l’infime, c’est évidemment l’état fort singulier et critique de l’univers où s’opère le big-bang, ou le grande rebond, en clair, où l’élémentaire, le cadre spatial (ou spatio-temporel émergent), et le Tout tendent à coïncider concrètement, sinon empiriquement. Alors, toujours en droit et théoriquement, la matière primaire (relativement !) tend à absorber l’élémentaire et l’universel, à se faire matière-univers-élément(s). Donc à ne pas rester une pure abstraction posée – si légitimement que ce soit – par l’esprit du philosophe… matérialiste, pour devenir un objet « en droit empirique » si j’ose dire. Bien entendu, il se peut que cet état initial/final prodigieusement intéressant d’un possible « univers en pulsation » ne soit pas concrètement observable, protégé de notre curiosité qu’il semble être par le Mur de Planck et par d’autres obstacles observationnels s’interposant entre l’objet à observer et les recherches physico-cosmogoniques : mais il s’agit alors de tout autre chose que des objections métaphysiques produites par l’agnosticisme ordinaire qui prétend par principe, comme le firent E. Kant ou A. Comte, de nous interroger sur le Tout, sur l’élément ou sur l’origine. Ce n’est pas la même chose que de d’ignorer à jamais parce que des obstacles physiques infranchissables (définitivement ?) obstruent la route du savoir, ou que de ne pouvoir connaître parce que l’esprit humain est réputé débile ou parce que le réel est « en soi » voilé, inconnaissable et magico-mystérieux. S’il est concevable que la genèse du cosmos soit en principe accessible à l’observation, si indirecte que l’on voudra, comme l’origine de l’embryogenèse (la « conception » par fusion des gamètes mâle et femelle) est concrètement devenue observable malgré les interdits de connaître posés par les religions, alors l’on concevra aussi que dans ces conditions, les sciences de l’avenir pourraient connaître un bouleversement statutaire et, si j’ose dire, topologique, plus important encore que celui que Descartes a suscité quand, fusionnant la géométrie à l’algèbre, puis identifiant la matière à l’espace sous le nom d’étendue, il a donné le branle à la science mécaniste de l’Âge classique : par la convergence du concept scientifique de matière-univers-élément(s) et de la catégorie logique et gnoséologique de matière, l’élément formel de la logique et l’élément proprement matériel de la physique/cosmogonie pourraient converger épistémologiquement, donnant si j’ose dire, matière à la logique et permettant symétriquement d’ériger une logique de la matière : en clair, une ontologie matérialiste nécessairement dialectique puisqu’il s’agirait de saisir, comme le disait jadis Mao, comment « Un se divise en deux ». Certes, on est encore loin de cela sur le plan pratico-pratique, mais l’est-on autant qu’il y paraît dans le principe quand on voit comment des mathématiciens (géomètres et topologistes), des physiciens et des cosmogonistes traquent et cernent, en cerclant de plus en plus près de leur « proie » cosmogonique, les rapports intimes entre l’infime et le cosmique, entre la matière et la force, entre le vide et la substance, entre le structural et l’historique, entre le formel et le matériel, entre l’espace et la dynamique matérielle, en résumé entre la forme et la matière, entre l’ « intelligible » et l’empirique…    

 

·         De la médiation géométrique et topologique dans la possible réduction de certains paradoxes quantiques.

 

a)  Microcosme et macrocosme. De la téléportation quantique des particules aux trous de vers connectant deux trous noirs.

L’un des phénomènes les plus surprenants, contre-intuitifs, voire « magiques » que prévoit et constate la physique quantique est l’intrication par laquelle deux particules classiquement baptisées Bob et Alice, et qui ont subi un certain traitement expérimental commun, interagissent instantanément à très grande distance de façon telle qu’une mesure réalisée sur Bob affecte aussitôt Alice et vice-versa, même s’il n’existe aucun lien physique (réel ou apparent ?) entre eux : cette stupéfiante « non-localité » quantique semble défier l’impossibilité relativiste de l’interaction instantanée à distance, laquelle résulte du fait que rien dans la nature, corps ou interaction, ne saurait voyager plus vite que la lumière se propageant dans le vide : c’est-à-dire l’idée que la causalité physique se transmet de proche en proche, sans « survol » instantané, que l’interaction est toujours locale et que, pour faire image, une forme de « télépathie » ou de « télékinèse » entre objets distants est par nature inconcevable. Souvent le réalisme physique classique a tenté de nier ou de minimiser ce fait expérimentalement établi à partir duquel seront, un jour sans doute, produits en série de puissants ordinateurs quantiques. Face à cette stupéfiante factualité empirique, certains physiciens sont tentés de s’exclamer : « C’est ainsi ! », « La nature est comme ça ! », ou, comme l’eût dit plus littérairement Blaise Pascal,

 

« … ce qui est incompréhensible ne laisse pas d’exister ».

 

Mais d’autres pistes plus rationalistes, et en tout cas plus soucieuses d’intelligibilité, sont désormais ouvertes. L’une d’elles passe précisément par l’interconnexion directe de la microphysique, terrain de jeu privilégié de la mécanique quantique, et de la macro-physique, domaine privilégié de la Relativité ; en effet, des astrophysiciens enquêtent désormais sur l’hypothèse fascinante d’une méga-intrication reliant deux trous noirs, c’est-à-dire des objets dont la masse concentrée peut être gigantesque, mais à propos desquels leur éminent spécialiste français, l’astrophysicien Alain Riazuelo, précise par ailleurs ceci :

 

« Les trous noirs sont des objets paradoxaux puisque ce sont des objets macroscopiques, mais qui ne sont pas plus complexes à décrire qu’une particule élémentaire ».

 

Dans certaines pistes de recherches très récentes, la communication instantanée à grande distance desdits trous noirs s’effectuerait au moyen des trous de ver, ces sortes de courts-circuits spatio-temporels dont la cosmologie relativiste autorise et prévoit l’existence. La physique quantique serait ainsi « rattrapée » par la problématique géométrique de la Relativité puisqu’un phénomène typiquement quantique, découvert par la physique de l’infime, en viendrait à être rationnellement et géométriquement (voire topologiquement ?) expliqué dans le champ microphysique au moyen d’une dialectique affinée de la matière et de l’espace-temps, une démarche qui, rapportée à un autre champ et avec de tout autres méthodes, est typiquement d’esprit einsteinien : cette explication relativiste et macro-physique ferait alors retour dans le champ microphysique sans nier, ni minimiser le phénomène de base (non-classicisme), mais en réduisant sa part d’irrationalité apparente et en « réinjectant » l’espace-temps relativiste, très lié depuis toujours à la question de la gravitation et à celle des vitesses-limites (Relativité restreinte), dans un secteur de la physique où il semblait jusqu’alors dénué d’importance, le micro-monde. On obtiendrait alors un mixte heureux, quoiqu’encore très hypothétique, signalons-le, de non-classicisme factuel (puisque l’intrication et la « téléportation », loin d’être niées, seraient au contraire élargies au domaine macro-physique via les trous noirs et autres trous de ver) et de rationalité relativiste, réaliste et dialectique : de la sorte, l’intrigante intrication quantique pourrait se concevoir, non plus comme une forclusion de la localité, comme un déni quelque peu magique de toute forme de spatio-temporalité, mais comme l’effet, si je puis dire, d’une alter-localité, comme un effet de la complexité spatio-temporelle, voire de l’ « alter »-spatio-temporalité.

 

Tout ce que nous venons d’exposer à très gros traits sous l’angle méthodologique et ontologique est examiné sous l’angle factuel des recherches en cours dans un fascinant numéro de Pour la science qui est surtout dédié aux « trous noirs intriqués ». Il ne s’agit pas seulement au départ de rapprocher la téléportation quantique de l’hypothèse astrophysique des trous de ver, mais d’unifier la physique en réduisant l’écart logique insoutenable entre la théorie relativiste de la gravitation, héritière de Newton et d’Einstein, et la Mécanique quantique, qui n’a que faire de la gravitation et des effets relativistes de nature spatio-temporelle. Qui ne voit que, par le biais de ce rapprochement spectaculaire entre la cosmologie des trous noirs et l’étude de l’intrication quantique, nous sommes en plein dans l’étude des convergences théoriques, à la fois ontologiques et méthodologiques, entre physique de l’infime et cosmologie ? Quel ami des Lumières ne comprendrait-il pas aussi les grands bienfaits qu’induirait, pour une ontologie rationaliste-réaliste et dia-matérialiste du monde physique, une approche géométrique (et/ou topologique ?) de l’intrication et de la téléportation, lesquelles sont aujourd’hui massivement exploitées par les tenants de l’irrationalisme et du « magisme » pour « prouver » l’irrationalité foncière de la nature et attester l’impuissance radicale, au final, de la démarche scientifique ?

 

Le projet le plus intéressant portant sur ces fameux trous de ver connectant deux trous noirs est mené de front par une centaine de physiciens et d’astrophysiciens de plusieurs continents dans le cadre d’une recherche intitulée I.F.Q. (It From Qubit). Le numéro 475 de Pour la science présente ainsi cette recherche internationale de pointe :

 

« … ce projet réunit plusieurs fois par an une centaine de physiciens (…). Le nom du projet résume l’hypothèse qui anime ces chercheurs : le it est ici l’espace-temps et le qubit représente la plus petite quantité d’information – la version physique du bit informatique » (p. 22).

 

Formulée par le physicien Juan Maldacena, l’hypothèse rationaliste a alors été formulée que…

 

« … à partir de calculs sur les trous noirs, nous nous sommes rendus compte que l’intrication de la physique quantique et les trous de ver de la Relativité générale pourraient constituer deux facettes d’un même phénomène » (p. 29).

 

Le paradoxe épistémologique est alors énorme et si l’hypothèse que nous examinons était avérée, son succès vérifierait comme à la parade le schème de la négation de la négation en matière d’histoire des sciences : alors que le Paradoxe E.P.R. (Einstein-Podolski-Rozen) avait été imaginé par ses subtils auteurs pour démontrer l’ « incomplétude » théorique de la Mécanique quantique et pour prouver qu’elle débouchait nécessairement sur une absurdité, ce serait au contraire par le truchement de la téléportation quantique et de l’intrication appliquées à l’échelle macro-physique que la Relativité et la Mécanique quantique pourraient, en réalité, se réconcilier en « croisant » leurs champs d’étude, ainsi que leurs modes de pensée respectifs. Comme le dit encore Juan Maldacena (p. 30) à propos de cet étrange effet-boomerang théorico-expérimental,  

 

« … l’ironie est grande, ce phénomène pourrait aujourd’hui ouvrir une voie pour concilier la théorie de la Relativité générale, développée par Einstein en 1915, et la physique quantique ».

 

Si l’on rapporte les deux phénomènes l’un à l’autre (téléportation quantique des mesures induites sur une particule vers une autre particule et trous noirs distants interagissant par le canal d’un trou de ver), un regard nouveau, croisant les perspectives quantique et relativiste, peut être porté à la fois, d’une part sur les trous noirs et sur la cosmologie d’inspiration relativiste, et d’autre part sur la microphysique et sur son ainsi-dite « non-localité » quantique. Comme il est précisé dans le numéro déjà cité de PLS,

 

« … les deux phénomènes pourraient être équivalents. Cette équivalence fournirait une piste pour élaborer une description philosophique de l’espace-temps » (p. 30).

 

Ontologiquement et méthodologiquement, penser les interactions entre trous noirs comme identiques, ou du moins, comme analogues aux effets « télé-porteurs » de l’intrication, inciterait alors à rapprocher méthodiquement la pensée cosmographique du mode de pensée et de l’ontologie quantiques, tandis que symétriquement, l’idée cosmologique et relativiste de trous de ver sillonnant l’espace-temps et connectant « souterrainement » de méga-objets, permettrait de « re-spatialiser », donc de « rematérialiser », les effets ordinairement rapportés à l’idée quelque peu magique, pour ne pas dire extra-spatiale (u/topique, dirait le grec), de télé-portage des propriétés quantiques telles que le spin des particules. Auquel cas, sans nier l’effet dit de télé-portation, celui-ci pourrait résulter, non pas du fait que l’intrication/téléportation échapperait magiquement à l’espace-temps (une utopie-uchronie des interactions particulaires qui paraît moins physique que métaphysique !), mais du fait que, tout au contraire, l’espace et la temporalité des phénomènes concernés seraient bien plus complexes et « feuilletés » que ne le laisse penser l’intuition ordinaire, qui oublie que deux sites parisiens qui sont fort distants quand on emprunte les bus de surface, peuvent être bien plus proches si l’on prend le métro et que l’on utilise astucieusement ses immenses gares de correspondance souterraines (l’analogue métropolitain grossier des trous de ver cosmiques). Mais si tel est le cas, s’il y a bien convergence (soit par analogie, soit par unité de fonctionnement réelle) entre micro- et macro-physique, ne peut-on penser l’intrication microphysique et la covariance transcontinentale d’Alice et de Bob selon le même modèle dia-matérialiste, associant de manière réglée la matière, l’espace-temps, l’interaction physique et le changement physique des corps ? Comme l’écrit encore J. Maldacena (PLS, p. 33),

 

« En s’appuyant sur certains considérations inspirées par la théorie des cordes (qui est une des pistes explorées pour parvenir à une théorie quantique de la gravitation), nous avons suggéré qu’une paire de trous noirs aux micro-états intriqués (ce qu’on pourrait nommer un état d’intrication E.P.R.) produirait un espace-temps dans lequel un trou de ver (un pont E.R.) relierait l’intérieur de deux trous noirs. En d’autres termes, l’intrication quantique crée une connexion géométrique entre deux trous noirs. C’est étonnant, car on pensait que l’intrication implique des corrélations sans liens physiques ; or ici, les deux trous noirs sont physiquement connectés par leur intérieur grâce au trou de ver. Léonard Suskind, de l’Université Stanford, et moi, avons noté ‘ER = EPR’ cette équivalence de trous de ver et de l’intrication ».

 

De manière assez sensationnelle, et avec d’évidents effets rationalistes et matérialistes potentiels sur l’ontologie physique, la concrétisation de cette hypothèse permettrait en quelque sorte de « traduire » l’une en l’autre, au moins sur un point stratégique, non seulement la macro- et la microphysique, non seulement l’approche relativiste et l’approche quantique, mais l’hypothèse de Maldacena et autres spéléologues des trous de ver cosmiques ressemblerait fort elle-même à… un trou de ver épistémologique rapprochant subitement, par un court-circuit rationnellement conçu (l’action réciproque entre matière et géométrie sous-jacente, qui forme le cœur de la Relativité), deux théories que tout opposait jusqu’ici structurellement, la Relativité et la Mécanique quantique : en somme, un pas vers la quantification du cosmique (et peut-être, de la gravitation ?), un pas symétrique vers la relativisation et vers la spatio-temporalisation du micro-monde ? Faut-il dire que la perspective est d’autant plus fascinante que l’hypothèse TN/TV (trous noirs via trous de ver) porte sur des objets, les trous noirs, dont le trait principal est d’être des monstres gravifiques, et qu’en outre, on nous indique complaisamment un « médiateur Micromégas (si j’ose dire !) » de l’intrication épistémologique en question : dans l’hypothèse exposée par M. Maldacena et ses collègues, la paire de trous noirs n’est-elle pas en effet intriquée par le truchement de « l’intrication de leurs micro-états » ? De la sorte, il ne serait pas impossible, théoriquement, de généraliser la « traduction » à l’ensemble des deux « langues », jusqu’ici intraduisibles l’une en l’autre, que se parlent aujourd’hui, sans bien se comprendre, les sciences cosmo-physiques ; et c’est bien là ce qui tente notre auteur :

 

« Puisque nous avons identifié une connexion entre les trous de ver et les états intriqués en considérant les trous noirs, il est tentant de spéculer que le lien est plus général ; qu’à chaque fois que nous avons une intrication, nous avons une sorte de connexion géométrique. Il en serait de même dans le cas le plus simple, quand nous n’avons que deux particules intriquées » (p. 35).

 

Et l’auteur de préciser, de manière objectivement très matérialiste :

 

« Si l’équivalence entre les trous de ver et l’intrication quantique se généralise, la connexion spatiale pourrait impliquer de minuscules structures quantiques qui ne suivraient pas notre vision habituelle de la géométrie. Nous ne savons toujours pas décrire ces géométries microscopiques, mais l’intrication de ces structures pourrait, d’une manière ou d’une autre, donner naissance à l’espace-temps lui-même. C’est comme si l’intrication pouvait être considérée comme un fil reliant deux systèmes » (p. 35).

 

Certes, la formulation « donner naissance à l’espace-temps » est porteuse d’équivoque, voire de contradiction logique : comment ce qui naît et qui donc subit le plus grand des changements possibles (le passage du néant à l’être !), pourrait-il échapper totalement au temps, donc au déroulement et à la succession ? Et que pourrait bien être un avant du temps ? N’y aurait-il pas ici à distinguer entre l’espace-temps tel que nous l’envisageons, l’ « intuitionnons » ou même le construisons géométriquement à l’ordinaire, donc une forme donnée de la spatio-temporalité, et quelque chose de bien plus large et général, ou encore de tout simplement autre (ainsi parlions-nous ci-dessus d’alter-spatialité) que ce que à quoi nous sommes habitués. Mais là n’est pas l’essentiel, qui est bien l’idée que la dialectique intime de la matière et de la géométrie, inventée par Einstein pour penser la gravité, peut servir de médiatrice théorique et ontologique entre l’intrication physique, qui modifierait indirectement jusqu’à l’espace-temps où évoluent ensemble, puis séparément, Alice et Bob, et la pseudo-magique action instantanée à distance qui soumet simultanément les deux sémillantes particules aux mêmes orgasme instantané à distance en faisant mentir le proverbe : « loin des yeux, loin du cœur ! »…

 

Rien ne dit pour autant que la géométrie utilisée par Einstein pour penser la Relativité physique, suffira à penser cette intrication-téléportation, et c’est pourquoi il faut sans doute éviter de croire que la Relativité triomphera telle quelle, si elle triomphe, de l’approche quantique. En dehors de toute recherche spécifique sur les trous noirs, les travaux mathématiques aujourd’hui entrepris sur la cosmogonie (géométrie non commutative) ou sur la forme générale de l’univers (via la « topologie cosmique ») suggèrent plutôt qu’une révolution mathématique, voire une révolution des rapports entre sciences cosmo-physiques et sciences « formelles » (logique incluse), pourrait s’avérer indispensable à terme pour aider la physique à s’unifier sur des bases plus larges que jamais, sans simplement « donner le dernier mot » à l’une des deux grandes approches rivales qui se disputent aujourd’hui le champ des sciences physiques, la Relativité, sésame du cosmologiste, et la physique quantique, clef des champs microcosmiques. 

 

b _ Vers un bouleversement des rapports épistémologiques entre sciences formelles et sciences physiques ?

 

Longtemps les rapports entre sciences mathématiques et sciences physiques furent empreints, soit d’une écrasante domination intellectuelle des premières sur les secondes, soit d’une pure extériorité teintée d’instrumentation pragmatique, les « modèles » mathématiques issus de raisonnements hypothético-déductifs « purs » s’appliquant du dehors, comme autant de formes toutes prêtes, aux obligeants phénomènes physiques : le physicien n’aurait plus alors qu’à chercher son bonheur dans les théories mathématiques existantes (bien qu’elles eussent été constituées pour elles-mêmes, « gratuitement »), ou qu’à « passer commande » aux mathématiciens en place si les modèles existants s’avèrent insuffisants ou inadéquats de manière à traduire une phénoménologie physique donnée. Le risque est alors, soit que le physicien prenne le modèle mathématique pour la réalité physique même (c’est ce que nous appellerons le fétichisme mathématique, dont l’origine remonte aux Pythagoriciens), soit qu’il s’imagine ne pas avoir à penser pour elle-même, « physiquement », l’essence des phénomènes physiques, la théorie mathématique lui fournissant une sorte de prêt-à-penser pour cela. L’arrière-plan philosophique de cette domination/extériorisation entre maths et sciences physiques est le divorce métaphysique de la forme d’avec la matière qui domine le dualisme platonicien initial et qu’Aristote s’était déjà efforcé de conjurer en retravaillant en profondeur les rapports du vivant et de l’élément logique. L’astronome allemand Kepler fit jadis un pas de géant méthodologique quand il substitua au prétendu « modèle parfait » du cercle l’idée d’une orbite planétaire elliptique dont le soleil occuperait l’un des foyers : car ce n’est jamais la réalité qui « a tort », ni davantage la raison qui serait déboutée par les étrangetés du réel. Pour tout scientifique, pour tout philosophe marchant sur ses deux jambes, celle du réalisme gnoséologique et celle de la rationalité physique, c’est la rationalité subtile de la nature que nous ne comprenons pas quand nous voulons rabattre à toute force une réalité physique complexe sur un schéma géométrique n’ayant de « parfait » que sa simplicité pour notre imagination. Désireux de trouver une issue aux apories logiques de la « dualité » quantique, Louis de Broglie a du reste vivement combattu en son temps le fétichisme mathématique. Il déclarait ainsi…

 

« … il ne faut pas être dupe des représentations mathématiques. Si des concepts abstraits comme ceux de l’espace de Hilbert en physique quantique, de l’espace de configuration en mécanique classique et en mécanique ondulatoire, de l’extension en phase en thermodynamique statistique, constituent des auxiliaires très clairs et très utiles pour l’exposé des théories, ce serait une grave erreur de leur attribuer une réalité physique qu’ils ne peuvent avoir et de les considérer comme le cadre véritable du déroulement des phénomènes, déroulement qui s’opère toujours dans l’espace physique et du temps » (op. cité, p. 151).

 

A l’inverse, de Broglie appelait à retravailler et à affiner les outils mathématiques existants pour les ajuster aux besoins hautement matérialistes du physicien. En particulier, il invitait à, si j’ose dire, « dé-linéariser » l’arsenal algébrique de la physique pour dissiper certaines illusions d’origine mathématique (en fait, formalistes) qui empêchaient selon lui de prendre en compte la dialectique réelle de l’onde et du corpuscule, du continu et du discontinu :

 

«  Dans le cadre des équations d’ondes linéaires usuellement utilisées, l’onde u apparaîtrait comme possédant une singularité au sens mathématique (avec un point on l’amplitude serait infinie), mais il pourrait en être autrement si l’on admettait que dans la région singulière où l’amplitude de l’onde est très élevée, interviennent des termes non linéaires, ne figurant pas dans les équations usuelles » (op. cité, p. 157).

 

Bref, un mouvement de convergence entrepris depuis longtemps entre maths et physique, et dont l’objet est de passer du prêt-à-porter théorico-mathématique au « taillé sur mesures » semble se dessiner avec insistance. Sans que cela ne mettre en cause la dimension irrécusablement formelle et hypothético-déductive des mathématiques, ni à l’inverse l’orientation cardinalement expérimentale et observationnelle des sciences cosmo-physiques, on peut espérer que cette convergence hautement stimulante et asymptotique du champ « formel » et du champ « matériel » permettra de forger les nouveaux outils mathématiques de haute précision qui semblent indispensables aux grandes unifications physiques en marche entre microphysique et cosmologie, Quantique et Relativité, approches discrètes et approches continuistes, point de vue fonctionnel et perspective diachronique, sur l’univers physique « Micromégas » : ne serait-ce que parce que l’appréhension fine de la géométrie est indispensable pour « re-matérialiser », via la dialectique entre substance matérielle, espace et temps, des interactions physiques, voire cosmiques, qui paraissent d’abord brutalement « non spatiales », « extratemporelles », si ce n’est carrément « immatérielles » : en clair, redisons-le après Bitsakis, magiques !

 

A l’inverse, comme nous l’avons vu à propos de « la nouvelle fonction logique Racine carrée de Non » (évoquée par MM. Deutsch et Ekert dans Pour la science), la logique, y compris la logique dialectique comprise stricto sensu, pourrait bien être impactée et « re-matérialisée du dedans » à partir d’une avancée théorique formelle issue du champ physico-informatique. Et déjà, comme nous l’avons maintes fois rappelé ici, la dialectique léninienne affinée dans Matérialisme et empiriocriticisme nous oblige à bien distinguer « la » matière, « le » temps, « l’ » espace, « l’ » univers, de leurs respectives formes usuelles, qu’elles soient dites « intuitives » ou historiquement construites, avec lesquelles l’empirisme et la routine mentale nous poussent spontanément à les confondre : raison pour laquelle d’ailleurs, c’est moins que jamais l’empirisme myope qui peut aider les mathématiciens à secourir les sciences cosmo-physiques aux prises avec la si délicate « transition de phase » épistémique actuelle : au contraire, la mise à jour de perspectives géométriques, topologiques, etc., toujours plus générales et plus « abstraites » (donc possiblement « exotiques ») peut permettre d’élargir l’horizon théorique (mathématique et physique) au point d’aider les physiciens à surplomber et à « ponter » les béances creusées entre les approches théoriques réellement existantes. A moins qu’à l’inverse, la puissante foreuse mathématique ne mette à jour, si j’ose dire, d’heureux trous de ver théoriques qui aideront les cosmologistes et autres micro-physiciens à court-circuiter, de manière fondée et légitime, les persistantes apories théorico-expérimentales qui les troublent ? 

 

Sur un plan plus nettement ontologique, la base logique possible de ces épousailles plus étroites entre sciences « formelles » et sciences « de la matière » est évidemment le mode de penser dialectique ; déjà Aristote, qui critiquait les formes idéales sans vie du premier Platon, remarquait qu’il n’y a pas non plus, en réalité, de matière amorphe ; Engels expliquera pour sa part que la matière ne vit que par et dans ses transformations puisque « le mouvement est le mode d’existence de la matière ». Si tel est le cas, si toute forme est bien forme de quelque chose, cela signifie que le détachement des formes (abstraction) que pratique à bon droit le mathématicien pour les traiter en elles-mêmes et pour elles-mêmes (c’est-à-dire de manière hypothético-déductive, en dégageant les rapports formels objectifs entre formes qui sont le socle de la démonstration), n’en perd pas pour autant sa signification ontologique, surtout quand ce « quelque chose » n’est autre la matière-nature-univers considérée comme objet scientifique global. Paradoxalement, ce qui est alors espéré des mathématiciens, mais aussi des logiciens, ce n’est pas qu’ils se rabattent « petits bras » sur des recherches particularistes répondant à telle ou telle sommation pointilliste des sciences expérimentales, mais qu’ils généralisent hardiment en se plaçant hardiment au niveau d’abstraction le plus élevé possible : et pour cause, s’il s’agit de penser, par ex., la ou les formes (réelles ou possibles) de l’univers, comme s’y emploient ensemble les cosmologistes et autres praticiens de la topologie cosmique, cela signifie que l’on devrait plutôt chercher – comme s’y employa jadis Leibniz pour penser la logique des mondes possibles et l’origine du monde existant – la ou les formes les plus générales qui fussent ; si bien qu’encore une fois, il vaudrait mieux par ex. étudier les notions d’espace et de temps de la manière la plus extensive possible en évitant de confondre l’essence de la spatio-temporalité (qui a sans doute quelque chose à voir avec l’intimité du rapport matière/mouvement) avec telle forme déjà répertoriée et balisée d’espace ou d’espace-temps. L’enjeu épistémique direct ne serait-il pas alors de saisir la dynamique générale de l’univers dont certaines théories de pointe font, en lien avec la géométrie non-commutative de Connes, un effet des propriétés d’espace à certaines échelles et changement d’échelles, jusqu’à faire sourdre le flux irréversible du temps physique que nous éprouvons, des propriétés dynamiques de l’espace ?

 

Conclusion 

 

La renaissance d’une ontologie dia-matérialiste à la fois critique et décomplexée n’est donc pas seulement une exigence interne, une contraignante propriété logique immanente à toute philosophie conséquemment matérialiste, réaliste et rationaliste. Cette obligation philosophique surgit aussi et d’abord d’un mouvement épistémologique profond qui connecte en profondeur les parties les plus opposées de la physique tout en les rapprochant du mouvement symétrique d’une partie des mathématiques. La philosophie matérialiste peut concourir à ce rapprochement comme elle pourrait aussi en bénéficier largement, moins en termes de légitimation scientifique extérieure, de « défense et illustration », que pour s’enrichir elle-même dans son travail au long cours sur les catégories logiques, sur leur enchaînement logique interne et sur ce redimensionnement matérialiste de l’héritage logico-dialectique auquel n’ont successivement cessé d’appeler ces relecteurs critiques de Hegel que furent Marx, Engels puis Lénine.