La dégénérescence de la recherche fondamentale

Je parlerai ici principalement de la recherche en mathématique et physique théorique, même si quelques remarques en déborderont.

Il me faut d'abord prévenir tout contresens en rappelant une fois de plus que la recherche fondamentale en mathématique et physique théorique était mon rêve d'enfance, qu'en un certain sens je n'ai jamais renié; que je considère les mathématiques pures et la physique théorique comme faisant partie des choses parmi les plus magnifiques à découvrir et explorer dans le monde, très malheureusement méconnues, et que donc je considère la recherche en ces matières comme étant un des plus beaux métiers du monde, pour ne pas dire le plus beau de tous. Que je la vois donc comme une forme ultime de la pensée, comme une finalité de l'histoire de la vie et de l'humanité, ou du moins un aspect essentiel de celle-ci.

Il est par ailleurs indéniable que ces deux disciplines ont accompli des avancées immenses, en apportant les fondements et outils indispensables un peu partout dans les autres sciences et développements technologiques, et par là, dans la construction du monde moderne.

J'en suis d'autant plus affligé de constater que par certains aspects et particulièrement depuis quelques décennies, cette quête ultime de l'homme ne satisfait plus, ou du moins pas toujours aussi bien qu'elle le devrait, à sa mission. Bien sûr les choses ne sont pas toutes blanches ou toutes noires, elles sont inégales et variables suivant les cas particuliers. Les choses sont complexes, de même que sur tant d'autres sujets que j'ai abordés par ailleurs. Il y a néanmoins un certain nombre de problèmes plus ou moins graves et prenant de l'ampleur, mais rarement pris au sérieux, qui entachent ces recherches, et que je vais tenter de décrire ici.

Rappel du critère de testabilité et de ses motivations

La testabilité (ou plus précisément la falsifiabilité) est une noble exigence applicable à toute théorie du réel non purement mathématique (l'exception des mathématiques pures vient du fait qu'elles n'ont à la base pas pour objectif de parler de notre univers, et n'ont donc pas lieu de se confronter à lui). Rappelons pourquoi, à l'intention des éventuels lecteurs non familiers avec la méthode scientifique et ses raisons.

Lorsqu'une théorie prétend décrire des choses réelles, en un sens qui nous concerne et dépasse les idéalités mathématiques, il est important de savoir d'une part si elle est vraie ou fausse, d'autre part si elle est instructive.

Qu'elle soit instructive, signifie qu'elle ait des conséquences sur la vie. Non seulement qu'elle affecte les décisions de celui qui y adhère, mais qu'il y ait une bonne raison à cela, à savoir le fait qu'elle l'avait effectivement informé sur l'avantage des décisions prises. A savoir, le fait que les conséquences de ces décisions seront effectivement positives, ou généralement proches du but recherché, par opposition à des décisions prises dans un autre cadre. Or ce fait même d'avoir des conséquences positives, rendant la théorie utile à la vie, partage une communauté de nature avec la testabilité de cette même théorie. A savoir, que l'usage même d'une théorie est déjà une manière de tester celle-ci. Donc: à quoi bon une théorie qui prétend parler de la vie et du monde réel qui ne soit pas testable ? Sans probabilité vérifiable que les décisions qu'elle inspire seront meilleures que celles qui se feraient sans elle, comment prétendrait-elle encore nous éclairer sur les décisions à prendre ?

La deuxième utilité, bien sûr plus évidente, de la testabilité, c'est d'aider à savoir si l'idée est vraie ou fausse. A quoi bon se passionner pour des idées prétendant décrire notre vie et notre univers si elles n'ont ni utilité pratique pour guider nos actions, ni opportunité de savoir si elles sont vraies ou fausses ? N'est-il pas lamentable de condamner pour une durée illimitée de nombreuses générations à piétiner dans des théories inutiles qui risquent aussi bien de n'être que des lubies arbitraires sans rapport avec le réel ?

Ainsi lors d'une conversation avec un partisan des « conversations avec Dieu » de Neale Donald Walsch qui me faisait part de ses croyances. Je lui fis remarquer que certaines de ses affirmations étaient infalsifiables. Il n'en eut cure, répondant qu'il n'était pas un positiviste logique et qu'il ne croyait pas à la pertinence de la méthode scientifique en matière théologique. Or, le problème est que la pertinence du critère de testabilité se fonde sur des raisons très générales bien au-delà d'un quelconque matérialisme dogmatique...

La physique théorique mise en échec par sa propre victoire

Parmi les blagues que j'avais lues à l'époque (1995) dans le forum électronique de l'ENS, il y avait cette évocation de l'archétype du mathématicien « trop fort »: « il démontre la conjecture de Riemann et l'axiome du choix et pendant 2000 ans les mathématiciens se retrouvent au chômage ».

Or c'est un peu là le malheur qui est arrivé à la physique théorique: elle a réussi il y a une trentaine d'années à plus ou moins boucler un ensemble théorique (relativité générale et modèle standard) si puissant que depuis lors on ne parvient quasiment plus à trouver d'expérience accessible dont les résultats ne soient pas contenus dans les conséquences de ce qu'on sait déjà. Ainsi, alors même qu'on voit à peu près clairement ce qu'il y a d'insatisfaisant dans les théories actuelles (problème de la mesure quantique, manque de cohérence mathématique et de compatibilité des connaissances établies) on ne dispose plus de moyen expérimental d'explorer ce qu'on ne sait pas encore.

Comme une armée d'explorateurs qui auraient fini de découvrir la Terre et qui ne verraient plus rien de mieux à faire dans la vie que d'aspirer à explorer la Lune, et pour cela auraient « seulement » besoin d'engins spatiaux pour les y conduire.

Tel est leur appel de détresse:

Des solutions qui cherchent leur problème désespérément

Ainsi peut-on qualifier l'appel des physiciens théoriciens à construire des accélérateurs de particules toujours plus puissants: leur imagination déborde d'explications possibles à toutes sortes de phénomènes envisageables, alors ils sont en manque de résultats expérimentaux à expliquer. Ils ont donc besoin de nouvelles expériences pour leur donner de nouvelles raisons d'être apparentes à leurs explications, alors même que cela n'a guère de chance de servir moindrement à l'humanité dans un proche avenir.


Ils ont pourtant déjà essentiellement accompli cette mission qui avait été la leur: ce qu'ils ont découvert explique déjà, en un certain sens, quasiment tout ce qu'il y avait à expliquer. Le résultat n'est pas entièrement satisfaisant certes, mais toute tentative d'aller plus loin s'apparente à des bavardages sur le sexe des anges. Alors, pour quoi faire les paie-t-on encore malgré tout ? Eh bien, à cause de:


La religion populaire de l'inaccessible : théologie, astrologie, astronomie, conquête spatiale et théorie du tout


Le critère scientifique de testabilité (et donc d'accessibilité) des connaissances est très impopulaire dans le grand public. Les gens aiment tout ce qui est transcendant, tout ce qui dépasse tout ce qu'ils ont la moindre chance de toucher ou d'imaginer, surtout pour donner en pratique un sens à leur vie. Ils veulent que Dieu se révèle à eux et guide leur vie, ils veulent voir et vénérer des miracles, lire et croire à la Parole de Dieu surtout lorsqu'elle est incroyable. Ils veulent voir leur vie écrite dans les astres, ils veulent aller sur la Lune et sur Mars, serrer la pince aux extraterrestres, ou sinon au moins voir les vidéos de gens marchant sur la lune et sur Mars et détecter un signal de civilisation extraterrestre (mais dès qu'ils ont été une fois sur la Lune ça ne les intéresse plus d'y retourner). Ils veulent savoir ou se donner l'impression de savoir tout ce qu'ils n'ont aucune chance de toucher et de comprendre, comme pour tromper le constat de leur ignorance qu'ils ne supporteraient pas. Ils vénèrent l'absolu comme un alibi pour se sentir grands tout en s'épargnant la peine de réfléchir.

Des stages de sciences avec main à la pâte pour les jeunes déchaîne leurs passions par des constructions de mini fusées, mais bien sûr la construction de prototypes d'écrans de télévision n'aurait aucune chance de faire le même effet.

Ainsi dans une rencontre publique entre Einstein et Charlie Chaplin, l'un d'eux a remarqué qu'ils étaient tous deux vénérés par la foule, l'un parce qu'elle le comprend, l'autre parce qu'elle ne le comprend pas.

Il y a pourtant dans cette vénération quelque chose de schizophrène. Comment les gens prétendent-ils à la fois dénigrer les mathématiques au nom de l'idée qu'elles ne servent à rien (alors qu'en fait elles sont hautement indispensables à tant de choses), et vénérer d'avance les futures découvertes d'une physique théorique qui elle par contre ne servira clairement plus à grand-chose mais à laquelle ces mêmes mathématiques sont les plus indispensables, puisqu'ils en constituent la substance même ?

lls ont pris à l'époque Laurent Nottale pour leur idole, et en ont fait le plus célèbre des chercheurs du CNRS, au nom de son audace philosophique à oser sortir du paradigme de la science pour entrer dans celui du rêve et du fantasme littéraire et philosophique généralisateur et unificateur de principes physiques, par ses idées révolutionnaires qui le lui auraient jamais laissé la chance de parvenir à ce poste au CNRS s'il s'était aventuré plus tôt à en faire mention, pendant que le reste des scientifiques restaient encroûtés dans leurs dogmes positivistes et leurs « hypothèses de différentiabilité » arbitraires. Voilà ce que symbolisait sa soi-disante théorie du tout qui n'avait en fait aucun sens, mais le rêve était trop beau pour être facilement abandonné.

Mais quand j'ai osé dire que la pensée intelligente pourrait avoir un intérêt profond et authentique, et puisse servir à quelque chose dépassant la quête de l'unification des théories physiques ou la simple convention de diplômes vides de sens, tout le monde a trouvé ça ridicule et scandaleux de vanité. Il faudrait savoir.


Cette quête effrénée du sexe des anges, en dépit de sa relative futilité, pourrait être simplement admise comme sympathique voire noble, s'il n'y avait plus grave :

La maison brûle ! Allô ? Cela intéresse-t-il quelqu'un ?

Les défis et misères auxquels l'humanité est actuellement confrontée sont criants: changement climatique et destructions de l'environnement, misères et famines, injustices, dictatures, guerres, crise économique et niveau de revenu relativement bas (bien des gens restent surmenés de travail, manquent de temps pour eux et estiment manquer du pouvoir d'achat dont ils ont besoin). Solitude de millions de gens qui cherchent l'âme soeur par internet ou autrement. Ou tout autre motif pour lequel des gens viennent adresser leurs revendications aux politiques.

Certains même pensent qu'il n'y a plus d'espoir, comme tel biologiste ayant écrit un livre dûment argumenté: « L'humanité disparaîtra, bon débarras ! ». Mais pour l'intérêt spirituel de qui donc les ultimes mystères de la physique seront-ils percés dans de telles conditions ?

Or tous ces problèmes sont par nature d'une grande complexité, face à laquelle seules des solutions relativement simplistes ont jusqu'ici été essayées et se sont avérées insuffisantes. Or il serait réellement possible de résoudre une grande part de ces problèmes par de nouvelles théories relativement beaucoup plus simples que nombre de celles ayant déjà été élaborées en mathématique pure et physique théorique, mais qui nécessitent seulement un travail de recherche non-nul, très au-dessus de l'effort de pensée courant du grand public.

La contribution de véritables penseurs et théoriciens serait donc bienvenue. Mais pourquoi aucun ne se penche-t-il sur ce problème ?

Pour plusieurs raisons en cercle vicieux:

D'une part, aucun ne s'y met car aucune institution n'aura l'audace de songer à les employer à cette fin.

D'autre part, personne ne songe à réclamer à quelque institution que ce soit d'en employer à cette fin, car personne n'oserait imaginer que cela pourrait aboutir à quoi que ce soit, mais tout le monde suppose que ce n'est pas un domaine de recherche scientifique, et que cela n'aurait aucune chance d'aboutir. Et aussi parce que personne n'a d'idée sur le profil recherché et le cahier des charges à établir pour une telle recherche qui n'est la spécialité d'aucun savant reconnu. Qu'un tel domaine de recherche semblerait de loin du domaine de la philosophie, et que les philosophes n'ont de toute façon que très peu su inventer d'idée utile à l'humanité, sauf des idées relativement très simples ou des idées désormais intégrées et dépassées par la science sans rapport avec le problème ici posé.

Ainsi les gens ne croient pas à l'utilité de la science pour résoudre leurs problèmes, mais comment prétendent-ils lui reprocher d'avoir échoué à une mission qui ne lui a jamais été confiée ? Aurait-ou oublié que pour que la science produise des fruits, il est d'abord nécessaire de faire travailler précisément sur la question posée des chercheurs suffisamment intelligents et préparés pour cela ?

Or, pourquoi donc la plupart des physiciens théoriciens, de même que bien des mathématiciens aux recherches sans espoir significatif d'utilité à moyen terme au reste de l'humanité, insistent-ils pour qu'on continue à financer leur conquête du sexe des anges, comme s'il n'y avait rien de plus urgent à faire en cette vie ?

Quid de la recherche des vraies questions ?

La communauté scientifique a mis en place des procédures très puissantes de contrôle de la vérité des découvertes, autrement dit de discernement des réponses à des problèmes donnés dans des domaines de recherche déjà institués. Ce sont les procédures de validation par les pairs dans les revues à comité de lecture.

En effet, le meilleur voire le seul moyen de déterminer la validité d'idées sur un problème complexe dépendant de nombre de connaissances déjà établies, est de les faire contrôler par des experts travaillant dans le même domaine. Il n'est pas question ici de le contester.

Mais ce n'est qu'une procédure de contrôle des réponses, qui fait l'impasse sur la quête des vraies questions. Mais à quoi sert donc de connaître la réponse à la question ultime de la vie, de l'univers et du reste, si on oublie de chercher la question ?

De plus, cette validation par les pairs n'est même pas toujours une garantie universelle de validité des réponses, dans la mesure où cela dépend de la préexistence d'une communauté déjà instituée d'experts compétents dans le domaine en question. Or si tous les membres officiels d'une discipline sont orientés dans une direction ou un ensemble de critères de qualité qui peut être faux, comment sera-il jamais possible de mettre un terme à une direction ou un style de recherche stérile, et d'initier une nouvelle direction de recherche et de travailler à la recherche de nouvelles questions plus essentielles que celles qui ont été étudiées jusque-là ?

L'académisme de la docte futilité: littérature, philosophie et post-modernisme

Telle est justement la misère qui sévit dans quelques autres domaines académiques. Telle est la tendance naturelle que peuvent avoir des institutions à se concentrer sur leur propre étude au seul vu du fait que c'est ce qui a la forme d'une étude portant sur les sujets qu'elles sont officiellement chargées d'étudier, sans se poser davantage de questions sur leur pertinence, leur utilité sociale et sur le type d'originalité dont qu'il serait bon de mettre en oeuvre pour améliorer cette dernière. Des institutions qui ne savent finalement pas faire grand-chose de mieux que de se ressasser elles-mêmes ou de disserter sans fin sur le sexe des anges. Qui s'enferment dans le cercle vicieux de leur ignorance au point de prendre cela même pour un savoir ultime.

Exemples:

L'étude des lettres. Je ne parle pas bien sûr de contester la validité de leurs thèses qui n'en sont pas et se contentent de compenser leur relative vacuité par le volume de papier employé, mais seulement de m'interroger sur la pertinence du fait de faire plancher un si grand nombre d'étudiants sur le contenu d'une production dont la valeur ne dépasse même pas 1% du PIB, frais d'imprimerie inclus. Si encore cette étude exhaustive était la voie nécessaire à la future production de nouveaux romans encore meilleurs que les précédents par tous ces étudiants !

De même la philosophie, qui en pratique s'apparente beaucoup à l'étude des lettres à force de ruminer indéfiniment sa propre histoire. Voir mes commentaires par ici.

Ainsi s'est développée la non-discipline du post-modernisme, Culture Grand Unifiée du Tout et du N'importe quoi, et surtout du relativisme universel qui interdit à quelqu'un d'avoir raison sur quelqu'un d'autre sauf par autorité arbitraire. Voir à ce sujet l'affaire Sokal, notamment exposée sur le site de l'Union Rationaliste.

Certains diront que la littérature et la philosophie telles qu'actuellement pratiqués sont des choses enrichissantes pour l'esprit, qu'elles forment l'esprit et par là des hommes libres et des citoyens dignes de ce nom, et pour cela invoqueront le grand nom de la Culture comme d'autres invoquent le nom du Christ. Mais pourquoi ne pas en dire autant des visites régulières du cinéma, de la pratique du jeu d'échecs ou du Trivial Poursuit, du yoga, de l'amour et du sexe, du tour du monde à la rencontre des différents peuples et différentes associations actives en tel ou tel domaine d'intérêt; de la visite des parcs d'attraction ou des stations balnéaires, ou encore de la foi chrétienne et de la messe dominicale, pour ne citer que quelques exemples au hasard parmi tant de possibles ? Que certains croient qu'une certaine activité dont ils sont fans aurait une faculté « spéciale » de former l'esprit, est-il une raison suffisante pour en subventionner si massivement la pratique aux frais des contribuables et ennoblir de diplômes ceux qui l'auront bien pratiqué, en dépit de l'injustice envers toute autre pratique qui pourrait aussi bien revendiquer des prétentions analogues ?

Pourquoi, finalement, fait-on résolument deux poids deux mesures en matière de laïcité républicaine où l'on déclare que l'Etat « ne reconnaît ni ne subventionne aucun culte », en subventionnant arbitrairement certaines pratiques choisies soi-disant formatrices mais de valeur relative et contestable, et en laissant toutes les autres s'auto-financer comme elles peuvent pendant le misérable temps qu'il reste à une population surmenée à la quête de diplômes ainsi arbitrairement définis ?

Revenons tout doucement à la recherche scientifique:

L'esprit de concurrence entre la surpopulation et les effets de mode

Le problème avec les embauches pour des recherches de thème défini par les grandes institutions, est qu'elles s'inscrivent dans des domaines socialement reconnus et à la mode, qu'un chercheur individuel n'ayant pas déjà derrière lui une longue carrière de découvertes dans un domaine reconnu, ne peut guère redéfinir à sa guise. Ainsi se trouve bridée la recherche des vraies questions, et limité le nombre des sujets officiellement étudiables et des méthodologies d'approches de ceux-ci. Or même si ce nombre est très grand en lui-même, il demeure relativement petit par rapport au nombre total de chercheurs existant dans le monde. Le résultat est que nombre de spécialités sont chacune habitée par un nombre de chercheurs assez important, qui risquent fort de se faire de l'ombre les uns aux autres. Certes la coopération et l'échange d'idées peut être fructueuse, mais il y a des limites. On peut voir cela comme un des dommages qui résulte généralement de la surpopulation mondiale, mais cette surpopulation n'est qu'une part d'explication, à côté des effets de modes suivant les rigidités institutionnelles.

Voici quels en sont effectivement les inconvénients: chaque chercheur se trouve confronté à une profusion d'articles en rapport avec son domaine de recherche, produits par divers chercheurs ayant travaillé plus ou moins indépendamment sur le sujet. Il doit se mettre régulièrement à jour de sa connaissance des articles existants, afin d'une part d'éviter la peine de réinventer ce que d'autres ont déjà fait, d'autre part de profiter des résultats des autres pour éventuellement s'appuyer dessus dans ses propres travaux et ainsi mener la recherche plus avant.

Là-dedans, la surpopulation des chercheurs a notamment pour effet de rendre cette mise à jour très difficile, et de laisser toujours courir le risque à plusieurs chercheurs qui ne se connaissent pas, de découvrir et publier une même nouvelle chose indépendamment; ceci est à la fois contre-productif et générateur de désordre supplémentaire dans une masse anarchique de travaux qui n'en avait nul besoin, et que personne n'a le temps de mettre en ordre. Ainsi l'esprit de compétition vient comme une conséquence inéluctable de cette surpopulation, mettre de l'ombre à l'esprit de coopération qui devrait à la base caractériser la recherche scientifique. Si un trop grand nombre de chercheurs travaillent dans un domaine, alors il y en a qui sont de trop. De mon côté, j'ambitionnais au fond, dès l'âge d'une vingtaine d'années (voire bien plus tôt si on m'avait épargné le calvaire de cette scolarité absurde dès le collège) de travailler sur des sujets sur lesquels ne travaillait personne (du moins pas d'une manière à porter les mêmes fruits), à savoir la refondation des mathématiques de base qui serait ô combien utile à des milliers d'autres étudiants. Mon travail ne serait donc entré en concurrence avec celui de personne d'autre. Mais, faute d'institution adéquate pour soutenir un tel travail en s'adaptant aux cas particuliers d'individus aux idées particulières (comme si tous les individus et surtout les meilleurs chercheurs n'étaient pas aussi des cas particuliers), je dus perdre une grande part de mon énergie intellectuelle à des jeux administratifs complètement idiots de prétendue concurrence frontale contre les milliers d'autres étudiants en mathématiques dans le cadre d'un moule commun...

Plus généralement, sur le plan de la macroéconomie mondiale, un doublement de la population développée et consécutivement de celle des dépenses et masses de travaux de chercheurs et innovateurs industriels, n'aura pas pour effet de doubler le rythme annuel de la croissance, parce qu'une croissance trop rapide oblige chacun à consacrer une plus grande proportion d'efforts à s'adapter à l'arrivée des technologies les plus récentes, plutôt qu'à chercher à en développer lui-même d'autres.

Des grandes unifications à profusion

En dépit de leur position fondamentale et de leur vocation unificatrice universelle, les mathématiques ont subi le même sort que toutes les disciplines scientifiques ou autres: l'hyper-spécialisation, autrement dit la division en une profusion de sous-disciplines qui se connaissent mal entre elles. Ceci ne contredit nullement sa vocation unificatrice, qu'elle a réellement mené à bien de diverses manières. Le seul problème est que justement on n'a que l'embarras du choix des grandes unifications qui se présentent en ordre dispersé, de sorte qu'il est difficile de voir quelle unité il y aurait à mettre en avant plutôt qu'une autre dans tout cela. Mais on peut en citer quelques unes.

La première unification, qu'on peut dire fondatrice, fut celle de la théorie des ensembles, qui unifie toutes les autres mathématiques comme des constructions particulières en son sein. Son seul problème est qu'elle est en partie arbitraire, fondée sur un seul type d'objets qui ne ressemblent pas à ce qu'on considère effectivement en pratique, et dotée d'une sorte de force de principe bien plus grande que ce qui est utilisé presque partout. On pourrait en écrire des variantes au moins aussi pertinentes fondées sur d'autres sortes d'objets et d'autres systèmes d'axiomes, ce que quasiment personne ne prend la peine d'expliquer.

L'autre unification, complémentaire et aussi fondamentale que la précédente, est la théorie des modèles qui définit un concept le plus général de théorie mathématique, accompagné d'un formalisme général de démonstration, dont il est démontré (par le théorème de complétude) le caractère universel, « parfait » à reformulation près. C'est-à-dire qu'en principe toute démonstration mathématique dans quelque théorie que ce soit est traduisible en ces termes, et tout autre « bon formalisme » de démonstration concurrent engendre les mêmes théorèmes: toute preuve écrite suivant un formalisme sera traduisible suivant l'autre formalisme et inversement. Ceci a déjà permis de mettre au point des logiciels de démonstration automatiques capables en principe de vérifier n'importe quelle démonstration mathématique. Seulement ceci ne nous renseigne pas, dans la classe générale illimitée de tous les formalismes concevables, et qui donc seront de toute manière équivalents en principe, comment en inventer un qui aura la forme la plus commode et intuitive, ou adaptée à la compréhension de théorèmes particuliers. Puis vient le théorème d'incomplétude qui est universellement applicable à toute théorie de vocation fondatrice des mathématiques...

Sans aucune prétention d'exhaustivité, voici quelques autres unifications mathématiques:

L'algèbre universelle, qui unifie de nombreux concepts et constructions de structures algébriques, qui furent elles-mêmes des concepts unificateurs de notions qui les avaient précédées.

La théorie des catégories, qui décrit une manière générale de relier entre eux des systèmes de toute nature, qu'elle soit algébrique, topologique ou autre, ce qu'on appelle des foncteurs.

La topologie algébrique, qui précisément décrit de nombreux foncteurs particuliers entre des structures topologiques et des structures algébriques, dont un exemple très particulier mais déjà très riche est le groupe fondamental.

Le programme d'Erlangen, qui relie groupes et géométrie (et se comprend bien du point de vue de la théorie des modèles)

Le programme de Langlands qui relie la théorie des nombres à celle des représentations de groupes

Le concept de machine de Turing universelle, qui unifie tous les concepts possibles de langages informatiques et de machines pour les exécuter.

Le concept de problème NP-complet, qui regroupe comme équivalentes entre elles des classes très générales de problèmes algorithmiques, classes qui peuvent être d'apparence très différentes les unes des autres.

Cela est bon et normal. Je n'en fais mention ici que pour compléter la compréhension des caractères généraux de la recherche en mathématiques purs à ceux qui n'en sont pas familiers. Et dire qu'il y a tant de gens qui ne sont pas au courant de la beauté et de l'unité des mathématiques ! Quel dommage.

Revenons à la physique théorique, qui serait, à ce que certains disent, en manque d'unification. Je trouve cela très injuste de qualifier ainsi les choses hors de leur contexte. En effet, les oeuvres unificatrices accomplies par la physique théorique sont déjà remarquables, et il est si dommage que bien peu de gens aient eu le privilège d'y goûter: toute une grande diversité de phénomènes chimiques expliquées par une seule théorie et deux types de « particules » (électrons et noyaux atomiques »); les diverses lois de la mécanique qui avaient été formulées au moyen de quantités distinctes finalement rassemblées en un principe unique (le principe de moindre action); de très nombreuses particules apparentes et le détails de leurs propriétés expliquées finalement par une liste de particules fondamentales relativement plus courte; enfin la grande diversité des comportements de la matière compris comme conséquences de théories relativement simples, pour ne pas parler de la beauté mathématique intrinsèque des théories en jeu, et de toute la grande aventure que constitue le seul fait de les comprendre.

Mais voilà, il y a toujours des gens qui ne s'en satisfont pas et souhaitent une théorie unique. Qui trouvent par exemple que les quelque 26 paramètres arbitraires dont dépend le modèle standard sont de trop, et souhaitent les rendre calculables à partir d'un nombre de paramètres plus petit. Or, il me semble peu plausible qu'il puisse se trouver un tel moyen de toutes les déterminer à partir de lois physiques plus profondes si (d'après ce qu'un physicien a écrit, a confirmer ou non) ce seraient les seules valeurs rendant possibles l'apparition de la vie: si le principe anthropique se trouvait réellement contraignant sur ces valeurs, il y aurait peu de chances que la détermination par une autre théorie aboutisse justement aux mêmes valeurs – bien sûr, il faudrait plus précisément vérifier, si cela est possible, en combien de dimensions s'étend l'ensemble permis par le principe anthropique, ce qui constituerait vraisemblablement le meilleur espoir a priori de diminution du nombre de constantes fondamentales à espérer d'une théorie du tout).

Par exemple, certains veulent unifier la force électrofaible avec la force forte. D'autres, imaginer une symétrie magique (la supersymétrie) entre les deux types de particules (bosons et fermions) qui apparaissent radicalement différentes malgré une certaine communauté de formalisation. Voyez un peu: une supersymétrie n'est pas elle-même une transformation normale qui fait correspondre deux choses qui ont réellement la même forme, mais un truc totalement abstrait, une super-transformation. Un superespace vectoriel est la somme directe d'un espace vectoriel « normal » de dimension positive et d'un espace vectoriel de dimension négative, qui n'est en fait rien autre qu'un espace vectoriel normal mais où certaines règles de calcul seraient changées. A savoir, où l'on aurait décrété une substitution dialectique entre les propriétés de symétrie et d'antisymétrie pour les formes bilinéaires.

Un problème avec les théories supersymétriques, en plus du fait que rien ne les confirme pour le moment, c'est que malgré un certain aspect d'unification, elles introduisent encore plus d'arbitraire: le nombre de paramètres libres passe de 26 à une centaine...

Emmêlés dans la théorie des cordes

Avec la théorie des cordes, on a beau avoir un principe abstrait de théorie unifiée avec la gravitation, la situation est encore bien pire: cette « théorie » se décline en quelque 10 puissance 500 variantes, dont chacune aurait un grand nombre de paramètres libres, et il est seulement espéré que quelques unes de ces si nombreuses variantes redonne le modèle standard comme approximation, mais on n'en connaît toujours aucun exemple particulier. Dans ces conditions, cela a beau être une belle théorie, elle ne permet toujours pas de prédire quoi que ce soit expérimentalement.

En fait, cette situation dans laquelle on s'embarque à inventer des choses radicalement nouvelles non directement suggérées par l'expérience, est plutôt inédite. Avant cela, on s'était seulement aventuré à prédire l'existence de particules qui manquaient pour compléter le tableau des 3 familles de fermions. Maintenant que ce tableau semble complet et qu'on ne dispose pas de résultats expérimentaux sur ce qu'il y a plus loin, les propositions de théories unificatrices sont purement spéculatives.

ll y a seulement la géométrie non-commutative d'Alain Connes dont le projet me semble en gros (je n'en connais pas les détails) d'allure bien plus raisonnable que les autres tentatives d'unification des forces (je ne parle donc pas ici de la gravitation quantique à boucles qui ne vise pas à unifier les forces), puisqu'il consiste simplement à réécrire ce qu'on sait (le modèle standard) dans un nouveau langage plus cohérent, et aboutir à des calculs plus précis sur les objets qu'on connaît déjà, qui seraient finalement les seuls dans la nature. Après tout en effet, n'est-il pas mieux de se concentrer sur ce qu'on a déjà et qui a une certaine allure relative de complétude, pour simplement essayer de mieux le concevoir, plutôt que d'aller inventer autre chose qu'aucune expérience ne nous a encore suggérée ?

Le fondement se trouve-il au départ, à l'horizon, ou encore le long du chemin de sa propre recherche ?

De toute manière, la situation s'avère comme extrêmement paradoxale si l'on admet les orientations de ce qui est actuellement reconnu et soutenu officiellement en matière de recherche soi-disant fondamentale: alors même que ce qu'on appelle le fondement aurait été sensé être par définition la source élémentaire initiale de tous les développements, on en est venu à partir à la poursuite désespérée d'une sorte d'idéal multiforme (de multiples options hypothétiques) d'ultimes fondements variés, infiniment lointains et infiniment complexes, qui ne se laissent pas atteindre et en tout cas ne peuvent être chacun approchés que par une poignée d'experts armés d'un gigantesque attirail de connaissances préalables extrêmement puissantes et sophistiquées nécessitant de nombreuses années d'études pour pouvoir être maîtrisées. Telle est du moins la situation qui semble s'imposer en physique, celle de notre univers particulier qui nous aurait été parachuté par un Dieu créateur à l'imagination visiblement très puissante et compliquée, dès lors qu'on se fixerait pour but de découvrir l'ultime théorie physique unique et cohérente d'où découlent en approximation les lois physiques actuellement formulées (du moins le modèle standard et la gravitation, en se permettant de laisser de côté le problème de la mesure quantique).

En mathématiques pures, monde absolu hors de toute contrainte des spécificités de notre univers par opposition à tout autre univers, et qui est strictement plus fondamental que toute la physique théorique, on serait en droit de s'attendre à ce que les fondements puissent s'éclaircir plus naturellement sans être assujetties aux caprices d'une imagination tordue arbitraire originelle d'un Dieu créateur, trop compliquée pour nous. Hélas, certaines recherches actuellement poursuivies viennent aussi s'apparenter à une telle quête désespérée d'un fondement infiniment lointain. Passons sur le problème des classifications enfin accomplies mais effroyablement complexes d'une chose aussi supposément basique que les groupes « simples » (finis ou de Lie), ou des recherches sur les noeuds (définis comme courbes fermées dans l'espace à trois dimensions) qu'on ne sait toujours pas classifier, et venons-en à ce qui se passe encore dans le domaine qu'on appelle le fondement des mathématiques, alors même que le b-a-ba de ce domaine n'est autre que le jeu de ping-pong entre toujours les mêmes deux fondements premiers et suffisants des mathématiques, bien connus depuis déjà des décennies et qui sont le fondement l'un de l'autre, à savoir la théorie des ensembles ZF d'une part, la théorie des modèles d'autre part.

Voici donc un exemple de sujet de recherche actif en ce domaine (parmi tant d'autres qui existent, celui-ci ayant l'avantage d'être facilement résumable comme objet même si les outils de son étude effective ne le sont pas) : l'hypothèse du continu. A savoir, existe-t-il dans l'ensemble des nombres réels (ou l'ensemble P(N) des parties de N, ce qui revient au même) un sous-ensemble infini trop grand pour être en bijection avec N, mais trop petit pour être en bijection avec P(N). (En fait on sait que le problème n'est pas de le trouver puisqu'on sait facilement définir le plus petit ensemble plus grand que N comme quotient explicite d'une partie explicite de P(N), mais de savoir s'il est ou non en bijection avec P(N)).

Or depuis déjà plusieurs décennies, cette question a été résolue comme indécidable: il a été démontré que la théorie axiomatique des ensembles ZF (aussi bien avec l'axiome du choix qu'avec certaines négations radicales de celui-ci), permet aussi bien à l'hypothèse du continu d'être vraie ou fausse (à savoir, s'il existe des univers mathématiques satisfaisant ZF alors il en existe aussi bien certains d'entre eux où cet énoncé est vrai, que d'autres où il est faux). Pourtant, cette théorie ZF est connue comme extrêmement puissante, très au-delà des seuls moyens mathématiques qui suffisent habituellement à résoudre la plupart des problèmes mathématiques qui peuvent nous intéresser en pratique. Décrivons la situation de manière imagée: imaginons les mathématiciens comme des gens qui tentent de percer des questions comme d'ouvrir des boîtes, avec pour outils habituels des tournevis, des marteaux et choses du genre. Mais voici une question dont la coquille résiste: après bien des années d'acharnement de celui qui s'en était chargé au départ (Cantor), une nouvelle tombe: certains ont su montrer que même en faisant éclater dessus une bombe atomique de quelque manière que ce soit cette coquille résisterait; ceci rend rigoureusement caduque tout espoir de la briser par des moyens plus modestes.

Alors, qu'est-ce donc que les mathématiciens d'aujourd'hui prétendent encore espérer y ajouter ? Eh bien, ils ont déjà entrepris de voir si on ne pourrait pas enfin briser cette coquille en essayant de faire exploser dessus des bombes atomiques de nouvelle génération, encore beaucoup plus puissantes que les précédentes (à savoir en ajoutant à la théorie ZF des axiomes supplémentaires: en effet parmi les univers de ZF où l'hypothèse du continu est vraie dans les uns et fausse dans les autres, il y aurait des univers qui seraient plus vrais que d'autres; donc on entreprend de se concentrer sur un type d'univers plus vrais que les autres pour voir si la réponse deviendrait unique parmi eux), bien plus puissantes que celles qui avaient été considérées précédemment. Mais, cela n'a finalement toujours pas suffi: les bombes nucléaires de nouvelle génération ont explosé dessus et la question est restée intacte.

Ils s'aventurent à tout cela, alors même que rien ne garantit au fond qu'une telle bombe ne risquerait pas, en brisant la coquille aussi durement, de fausser du même coup la réponse qui était à l'intérieur. C'est d'ailleurs là un risque sérieux: certains ayant cru trouver la réponse après avoir examiné ou éclaté la coquille par d'autres moyens non conventionnels, se sont finalement aperçus que la réponse qu'ils ont cru trouver n'était finalement qu'un artefact fabriqué par le mode particulier d'examen qu'ils avaient employé, plus que par ce qu'il y pouvait y avoir à l'intérieur de la coquille au départ.

Alors, confrontés à l'évidence qu'une simple augmentation de la force brute de leurs axiomes (les grands cardinaux) n'est pas prête de suffire, ces logiciens acharnés ne renoncèrent pas à leur idéal de recherche d'une vérité absolue sur cette question fétiche en dépit de toute évidence d'indétermination profonde et radicale de celle-ci. Ils continuèrent à rivaliser d'imagination pour tenter de dénicher une réponse tant espérée par tout nouveau moyen (autres sortes d'axiomes supplémentaires pas seulement « puissants » mais au caractère plus subtil) qu'ils pourront imaginer. Ils tentent donc de passer la question au scanner, sonar et autres rayons X de diverses gammes, en dépit de risques là encore bien difficilement contrôlables d'être ce faisant victimes d'artéfacts et autres illusions d'optique (à savoir si les critères utilisés de sélection d'univers, que l'univers « le plus vrai de tous » est supposé satisfaire, sont effectivement satisfaits par lui, alors que cette notion même d'univers plus vrai que les autres est floue et discutable, surtout lorsqu'on s'aventure dans des critères de reconnaissance détournés de la voie directe de la « force brute » des grands cardinaux). Ils semblent finalement avoir trouvé une réponse (à savoir qu'il y aurait un et un seul intermédiaire entre N et P(N), ce qui laisse en suspens la grave question de savoir s'il ne s'agit pas que d'une illusion fabriquée par le moyen d'étude particulier; question qui n'est en fait elle-même qu'une vague question de type plus ou moins purement philosophique sans signification clairement rigoureuse, dans la mesure où le théorème d'indécidabilité initialement découvert restera toujours valide par ailleurs. Ce qui nous ramène donc fatalement à des questions d'appréciation plus ou moins subjectives. A suivre...

Tout cela, alors même qu'à ce que je sache la réponse à cette question n'aura de toute manière aucune conséquence (autre que purement « ensembliste ») sur le reste des mathématiques.

Naturellement, face à un récit aussi rocambolesque il y a de quoi se demander: un tel acharnement thérapeutique sur une question aussi anecdotique qui a déjà montré tous les signes cliniques de trépas est-il bien raisonnable ? Le fait de trouver enfin une « vraie réponse » à la question est-il aussi fondamental que cela ? Ou bien un travail aussi démesuré n'est-il là encore qu'une sorte de nième dissertation sur le sexe des anges (bien qu'étant aussi parfaitement rigoureuse mathématiquement et extrêmement intelligente à sa manière propre) ? Pourquoi ne pas simplement se contenter du résultat d'indécidabilité initial, qui ne pose aucun inconvénient pratique au reste des mathématiques ?

Lors de mon année à l'ENS, un des sujets de recherche présenté (sans rapport avec les fondements des maths) était : « fonctions L p-adiques », qui est une généralisation des fonctions L en replaçant l'ensemble des nombres réels ou complexes par un corps de nombres p-adiques. Bref, une idée d'allure extravagante sensée apporter de nouvelles connaissances en théorie des nombres, alors que bien des mathématiciens n'ont jamais entendu parler ni de fonctions L ni de nombres p-adiques...

On pourrait multiplier les exemples, mais le point est celui-ci: depuis quelques décennies, bon nombre de sujets de « recherche fondamentale » reconnus comme tels, ont au moins un des deux défauts suivants, et souvent les deux à la fois:

Le fait d'être des questions très complexes qui nécessitent de parvenir à la pointe d'un domaine de recherche spécialisé après bien des années d'études générale puis spécialisée en ce sens, pour pouvoir être étudiés, voire même parfois ne serait-ce qu'être énoncés.

Et le fait que les découvertes qui en résultent n'ont que des retombées négligeables voire nulles sur le reste des mathématiques, la scolarité des étudiants en mathématiques et la vie des autres mathématiciens qui ne soient ni dans la même spécialité ni dans une des rares spécialités qui aient la chance d'en être affectées; pour ne pas parler du reste des sciences et des technologies.

En ce sens, on peut dire que ces recherches échouent à satisfaire les deux critères de qualité qui devaient être caractéristiques d'une science dite fondamentale. Le premier, celui de scientificité, qui est d'avoir des liens utiles et instructifs vis-à-vis du reste des mathématiques (voire, des autres sciences ou du reste du réel). Le deuxième, celui de fondamentalité, à savoir de viser à établir des choses relativement primitives, c'est-à-dire si ce n'est simples, du moins qui seraient à placer quelque part parmi les commencements, et puissent ainsi jouer un rôle de point de départ vis-à-vis de ces autres branches des mathématiques ou des sciences avec lesquelles elle est en relation.

Bien sûr, il faut de tout pour faire un monde, et il n'y aurait rien à redire en soi à l'existence de recherches de pointe difficiles et éloignées des fondamentaux proprement dit (les choses les plus utiles et élémentaires), si ce n'est de déplorer que pendant ce temps, ces derniers sont globalement laissées sur le carreau. Et voici le résultat:

La tour d'ivoire et la crise des vocations

Faute que quiconque ne s'occupe d'apporter des réflexions neuves utiles aux mathématiques de base (je veux dire au niveau de ce qu'on appelle maintenant les années de licence, du moins tant qu'on n'aura pas l'audace d'introduire plus de choses intéressantes dans l'enseignement secondaire comme ce qui a pourtant bien pu être fait sans tuer personne dans des pays de l'est, notamment la Roumanie au cours du 20ème siècle, où les élèves avaient bien au moins 2 ans d'avance sur les programmes français de l'époque, qui étaient encore supérieurs à ceux d'aujourd'hui), ces dernières se trouvent désormais fossilisées dans l'état où elles avaient été élaborées depuis longtemps déjà, avec pour seuls changements significatifs des régressions provoquées par les évolutions globales du système scolaire qui obligent à simplifier les programmes à tort et à travers. En pratique, ces changement consistent principalement à vider les cours de leur substance, et surtout de certains des points parmi les plus intéressants qu'ils pouvaient comporter, afin de s'assurer que tout ce qui restera sera des choses lourdes et fastidieuses seulement capables d'ennuyer les élèves et étudiants pendant des années, et ne laissera surtout rien soupçonner de la valeur, de l'intérêt et de la richesse foisonnante de toutes les idées, connaissances et recherches actuellement développées dans les sciences.

Bien entendu, si les cours existants étaient déjà parfaits et absolument les meilleurs possibles à leur niveau pour permettre aux étudiants d'aller plus loin, ce serait regrettable mais il faudrait s'y résigner au même titre qu'on doit actuellement se résigner à la relative complétude des connaissances acquises en physique théorique, à la haute difficulté de leur conception et au manque de nouvelles données expérimentales pour aller plus loin.
Or, s'il est vrai que cette stagnation des programmes de licence est liée au fait que la plupart des professeurs n'imaginent pas qu'on puisse mieux faire, le problème de mon point de vue est que leur supposition implicite d'impossibilité de faire significativement mieux est erronée.

Là encore, personne ne cherche parce que personne ne pense qu'il y a quelque chose à trouver, ceci venant du fait que personne n'a trouvé, et réciproquement, avec là encore le problème du recrutement et du lieu géographique introuvable de mise en pratique éventuelle d'une méthode originale au pays de la standardisation républicaine. Et les chercheurs de plus haut niveau préservent soigneusement leur tradition de tenter autant qu'ils peuvent de n'enseigner que des cours de niveau maîtrise de peur de s'ennuyer avec les cours de licence. Mais comment les mathématiciens et physiciens professionnels osent-ils se déclarer offusqués de cette crise des vocations scientifiques que leur propre passivité a provoquée ?

Un autre problème est effectivement celui de la standardisation. Même si un programme d'enseignement pouvait être parfait pour quelque chose, il serait très extraordinaire qu'il le soit à la fois pour tous les publics et toutes les vocations. L'optimisation sociale obligerait à diversifier les listes de concepts et méthodes à enseigner suivant les goûts et capacités individuels (tout en laissant certes un langage commun permettant la communication), et par conséquent à présenter une diversité des formations qui se pratiquent à distance par internet pour ne plus dépendre des questions parasites de découpages géographiques. Or ce n'est actuellement pas le cas.

C'est pourquoi, bien qu'étant administrativement hors circuit et n'étant pas parmi les « plus forts » des mathématiciens, j'estime que mes travaux que je pratique en homme libre, qui ne sont nullement en soi parmi ceux de plus haute difficulté (dont justement l'excès serait nuisible à cet objectif) seraient à classer parmi les meilleurs travaux de « recherche fondamentale en mathématiques » si seulement cette expression était enfin rendue à sa véritable signification. Je regrette seulement de n'avoir toujours pas eu l'énergie de mener ce projet à son terme depuis tant d'années que j'en ai les idées et que je l'ai démarré, mais la roulette russe des massacres socio-politiques perpétrés par le totalitarisme ambiant, à coups de dictature scolaire qui ne laisse pas le temps à ses victimes de respirer, et d'inaction totale là où il y aurait vraiment quelque chose d'utile à faire; massacres fondés sur la léthargie mentale collective et qui ont l'art de se faire passer pour les échecs personnels de leurs victimes, en a décidé autrement.

Néanmoins, si jamais vous connaissez quelqu'un qui s'intéresse aux mêmes questions fondamentales (pour ce qu'il me reste à faire: particulièrement la refondation de l'algèbre sur une version simplifiée des concepts d'algèbre universelle et une grande remise au propre du formalisme tensoriel pour la physique), faites-moi signe, merci.


Retour au sommaire des pages scientifiques

Voir aussi: construire la civilisation