• Les limites de la connaissance 6) Réalisme et monde quantique

     6-1: introduction

     

     Conclusion de l'article: je pense que cette complémentarité représente l'aboutissement de la "fin des certitudes" dans la pensée humaine, un retour à la complémentarité corps-esprit (Jésus n'a-t-il pas dit "rend à César ce qui est à César et à Dieu ce qui est à Dieu"). 

    Nietzsche a écrit "Dieu est mort"... La désacralisation semble être "accomplie", le matérialisme se croît triomphant en ce début de "l'ère du Verseau". Rien n'est moins sûr. La précipitation des évènements mondiaux et personnels, l'augmentation de la violence et de l'absurde montrent peut-être que la complémentarité dont parle Bohr n'est pas bien assimilée et comprise??? 


    le chat de Schrödinger

     

    l'énergie du vide

    le laser.

     

     

     

    Préambule

     

    La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


    Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gôdel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr  en mettant en cause toute notre manière de penser.

    L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?


    Exergue:

    "Comme Popper l'a remarqué, nos théories sont des filets que nous construisons pour attraper le monde. Nous ferions mieux de d'accepter le fait que la mécanique quantique a fait surgir un poisson plutôt étrange."      Redhead (1987).

    1) Les limites de la physique classique.


    Dans l'article sur le chaos déterministe nous avons vu que le paradigme de la mathématisation possible de la nature doit être revu. Quels que soient les moyens théoriques ou techniques dont on disposera, quel que soit le temps qu'on acceptera de passer sur une prédiction, il existera toujours un horizon temporel infranchissable dans les prédictions. Cet horizon est variable selon la nature du système et les limites de principe dans la précision qu'on peut obtenir sur les conditions initiales mais il est fini dans tous les cas. L'univers ne peut plus être considéré comme une grande machine dont il est possible de prévoir le comportement au moyen de formules mathématiques, même complexes. L'équivalence entre déterminisme et prédictibilité est morte. 

     

    La mécanique classique rencontre, par ailleurs, un autre type de limitation lié à son champ d'application. Il faut en effet lui substituer la théorie de la Relativité restreinte lorsque les vitesses ne sont plus négligeables devant la vitesse de la lumière (c = 300 000 km/s) ou de la Relativité générale dès que les champs de gravitation deviennent intenses. Toutes deux ont été découvertes par Einstein.

    Mais de plus, le champ d'application de la mécanique classique est limité aux objets de taille macroscopique. Dès qu'on s'intéresse aux objets dont la dimension est de l'ordre des dimensions atomiques (typiquement 10-10 m), la mécanique classique doit être remplacée par la mécanique quantique. Son efficacité est remarquable pour décrire le comportement des phénomènes subatomiques (électrons, protons, neutrons...). Elle explique la couleur des corps, le fonctionnement des semi-conducteurs, les propriétés des métaux, les niveaux d'énergie des atomes, la superfluidité...Aucun phénomène physique n'a nécessité sa révision. Mais c'est théorie étrange qui a soulevé de nombreuses questions d'interprétation qui ne sont pas toutes entièrement résolues, malgré les progrès de ces dernières années. Elle nous force à reconsidérer entièrement beaucoup d'idées intuitives que nous avons sur les propriétés des objets, sur les rapports entre l'observateur et le phénomène observé, sur le déterminisme et elle nous conduit à modifier radicalement la conception du monde qu'on pourrait légitimement construire à partir de la mécanique classique. 

    Quels que soient les problèmes soulevés, il s'agit toujours de problèmes d'interprétation du formalisme et jamais de problèmes d'application. Elle fonctionne remarquablement bien et c'est une des théories les plus précises qui ait été jamais été construites. L'interprétation du formalisme a conduit à des conséquences philosophiques qui semblaient contraires au bon sens ou à l'intuition. Bien que les débats ne soient pas tous clos, on peut considérer aujourd'hui que nous comprenons mieux ce qui est compréhensible en elle, et avons appris à ne pas chercher à comprendre (au sens de ramener à une image familière) ce qui ne l'est pas. 


    2) Premier contact: La nature et le comportement de la lumière et de la matière


             2-1) un problème insoluble en physique classique: "la catastrophe ultraviolette"

     

    La catastrophe ultraviolette, formulée dans la seconde moitié du xixe siècle et ainsi nommée par le physicien autrichien Paul Ehrenfest, est une prédiction contre-factuelle des théories classiques de la physique — électromagnétisme et physique statistique : uncorps noir à l'équilibre thermodynamique est censé rayonner un flux infini. Plus précisément, l'énergie rayonnée par bande de longueur d'onde doit tendre vers l'infini quand la longueur d'onde tend vers zéro, « dans l'ultraviolet » pour les physiciens de l'époque, puisque ni les rayons X ni les rayons gamma n'étaient alors connus.

    Cette anomalie montra l'échec des théories classiques de la physique dans certains domaines et constitua une des motivations pour la conception de la physique quantique : en 1900Max Planck en jeta les prémisses, permettant de résoudre le problème du rayonnement du corps noir avec sa loi de Planck.

    Un corps noir est modélisé par une cavité contenant de l'énergie sous forme d'un champ électromagnétique. En raison des conditions aux limites, le champ prend la forme d'une onde stationnaire admettant un ensemble discret de modes. Par exemple, les modes horizontaux d'une boîte ne peuvent avoir pour fréquence que

    \,\nu = nc/L

    où L est la longueur de la boîte, n un entier naturel non nul quelconque et c la vitesse de la lumière.

    Ci-dessous: illustration des conditions aux limites en dimensions 1 et image des modes propres discrets possibles (voir aussi les articles Corde vibrante et Onde stationnaire)

    Standing wave.gif

    Harmonic partials on strings.svg

    En électromagnétisme, on montre plus généralement que le nombre de modes par unité de fréquence de la cavité est proportionnelle au carré de la fréquence :

    \,\frac{\mathrm{d}N}{\mathrm{d}\nu} \propto \nu^2.

    En appliquant le théorème d'équipartition de l'énergie, chaque mode doit contenir une énergie kT/2, où k est la constante de Boltzmann et T la température du système. Il en résulte que l'énergie par unité de fréquence suit la loi de Rayleigh-Jeans :

    \frac{\mathrm{d}E}{\mathrm{d}\nu} \propto T\nu^2.

    Ainsi l'énergie par unité de fréquence tend vers l'infini lorsque la fréquence tend vers l'infini et l'énergie totale est infinie.

    Planck obtint pour la première fois un bon accord théorie/expérience en supposant que l'énergie électromagnétique, au lieu d'être continue comme dans la théorie classique, ne peut prendre que des valeurs discrètes multiples de h c/ λ, où c est la vitesse de la lumière dans le vide : c = 299.792.458 m.s-1, et h, la constante de Planck, vaut h = 6,625 × 10-34 J.s.

    Ce qui n'était alors qu'un « artifice de calcul » permet de trouver une formule qui correspond à l'expérience, la loi de Planck :

    Cette formule, comme on pourrait s'y attendre, redonne la formule classique si on fait tendre h vers zéro, c'est-à-dire si on considère l'énergie électromagnétique comme continue.

    C'est Einstein, qui, le premier, pour expliquer l'effet photoélectrique, considéra ce quanta de Planck comme réel. En fait, l'avènement de la physique quantique a donné un sens à cet « artifice de calcul » des premiers temps, et la raison de la quantification de l'énergie est maintenant comprise.

              2-2) la double nature de la matière et de la lumière.


              a) Savoir de quoi est constituée la lumière est une question que les hommes se sont toujours posée. Pythagore et Platon avaient chacun une théorie. Dans la première moitié du XIXe siècle, deux conceptions s'opposaient. La position dominante, celle de Huyghens, développée par Fresnel et Young stipulait que la lumière est faite d'ondes transversales de propageant à travers un milieu élastique , l'éther. La deuxième, anciennement avancée par Newton, était une conception corpusculaire. Dans la conception ondulatoire, la lumière se propageait plus rapidement dans l'air que dans l'eau, alors que c'était l'inverse pour la conception corpusculaire.   En 1850, Foucault réfuta l'hypothèse corpusculaire par une comparaison des vitesses. Par la suite, la notion d'éther fut remplacée par Maxwell et Hertz par celle d'ondes électromagnétiques transversales, mais ils continuèrent à admettre que la lumière était un phénomène ondulatoire. 

     

    fentes d'Young

    - Les interférences: un argument en faveur de la nature ondulatoireLes fentes de Young (ou interférences de Young) désignent en physique une expérience qui consiste à faire interférer deux faisceaux de lumière issus d'une même source, en les faisant passer par deux petits trous percés dans un plan opaque. Cette expérience fut réalisée pour la première fois par Thomas Young en 1801 et a permis de comprendre le comportement et la nature de la lumière. Sur un écran disposé en face des fentes de Young, on observe un motif de diffraction qui est une zone où s'alternent des franges sombres et illuminées.

     

    Cette expérience permet alors de mettre en évidence la nature ondulatoire de la lumière. Depuis, Elle a été également réalisée avec de la matière, comme les électronsneutronsatomesmolécules, avec lesquels on observe aussi des interférences. Cela illustre la dualité onde-particule qu'on évoquera par la suite: les interférences montrent que la matière présente un comportement ondulatoire, mais la façon dont ils sont détectés (impact sur un écran) montre leur comportement particulaire.

    Des expériences similaires aux fentes de Young impliquant des électrons ont été réalisées. En 1961, Claus Jönsson à Tübingen produisait des interférences avec un fil d'araignée métallisé séparant un faisceau d'électrons en deux. Une expérience semblable, avec un fil d'araignée métallisé, était réalisée en 1956 par Faget et Fert à l'université de Toulouse. En 1989, Tonomura et al. ont envoyé un électron sur un biprisme à électrons. Ils ont observé la figure d'interférence prédite par la théorie.

     

     

    Pour les interférences, l'explication est simple si on suppose que la lumière est composée d'ondes sinusoïdales qui peuvent suivre deux trajets différents: la distance parcourue n'est donc pas la même et selon le point d'arrivée, les rayons peuvent arriver en phase (la différence des longueurs des trajets est un multiple de la longueur d'onde), ou pas. Dans le premier cas, les rayons s'ajoutent donnant un point clair, dans le deuxième cas ils se retranchent, aboutissant à un point sombre. Une mesure de l'écartement des franges permet d'en déduire la longueur d'onde. Cette expérience est un argument fort en faveur de la nature ondulatoire de la lumière, car elle en fournit une explication naturelle. 


              b) L'effet photoélectrique: un argument en faveur de de la nature corpusculaire

     

    Il a été découvert en 1887 par Heinrich Rudolf Hertz qui en publia les résultats dans la revuescientifique Annalen der Physik[2].

    Albert Einstein fut le premier à en proposer une explication, en utilisant le concept de particule de lumière ou quantum, appelé aujourd'hui photon, initialement introduit par Max Planck dans le cadre de l'explication qu'il proposa lui-même pour l'émission du corps noir.

    Albert Einstein a expliqué qu'il était provoqué par l'absorption de photons, les quantum de lumière, lors de l'interaction du matériau avec la lumière.

     

    L'effet photoélectrique est l'émission d'électrons par un matériau, généralement métallique lorsque celui-ci est exposé à la lumière ou un rayonnement électromagnétique de fréquencesuffisamment élevée, qui dépend du matériau.

    Dans l'effet photoélectrique, on éclaire une plaque de métal et celle-ci émet des électrons. Les électrons ne sont émis que si la fréquence de la lumière est suffisamment élevée (la fréquence limite dépend du matériau), alors que leur nombre, qui détermine l'intensité du courant, est proportionnel à l'intensité de la source lumineuse.

    Cet effet ne peut être expliqué de manière satisfaisante lorsque l'on considère que la lumière est une onde, la théorie acceptée à l'époque, qui permet d'expliquer la plupart des phénomènes dans lesquels la lumière intervient, tel l'optique, et qui était traduite mathématiquement par la théorie de James Clerk Maxwell.

    En effet, si l'on considère la lumière comme une onde, en augmentant son intensité, on devrait pouvoir fournir suffisamment d'énergie au matériau pour en libérer les électrons. L'expérience montre que l'intensité lumineuse n'est pas le seul paramètre, et que le transfert d'énergie provoquant la libération des électrons ne peut se faire qu'à partir d'une certaine fréquence.

    L'effet photoélectrique, l'onde électromagnétique incidente éjecte les électron du matériau

    L'effet photoélectrique, l'onde électromagnétique incidente éjecte les électron du matériau

    L'interprétation de Einstein, l'absorption d'un photon, permettait d'expliquer parfaitement toutes les caractéristiques de ce phénomène. Les photons de la source lumineuse possèdent une énergiecaractéristique déterminée par la fréquence de la lumière. Lorsqu'un électron du matériau absorbe un photon et que l'énergie de celui-ci est suffisante, l'électron est éjecté; sinon l'électron ne peut s'échapper du matériau. Comme augmenter l'intensité de la source lumineuse ne change pas l'énergie des photons mais seulement leur nombre, on comprend aisément que l'énergie des électrons émis par le matériau ne dépend pas de l'intensité de la source lumineuse

     

    Cette proposition est révolutionnaire, car elle signifie à une conception corpusculaire de la matière, qui semblait pourtant avoir été réfutée. 


              c) Le comportement ondulatoire de la matière.

    L'effet photoélectrique n'est compréhensible que si la lumière est composé de particules, les photons. Mais, l'expérience des franges ne l'est que si la lumière est une onde. On est donc confronté à deux expériences cruciales donnant des résultats incompatibles. Louis de Broglie, en 1923, fit une hypothèse audacieuse, sachant que la relativité montre que la masse est une forme d'énergie (E=mc2et que l'énergie peut être reliée à la fréquence.

     "Mon idée essentielle était d’étendre à toutes les particules la coexistence des ondes et des corpuscules découverte par Einstein en 1905 dans le cas de la lumière et des photons. » « À toute particule matérielle de masse m et de vitesse v doit être "associée" une onde réelle » reliée à la quantité de mouvement par la relation :


    \lambda = \frac{h}{p} = \frac {h}{{m}{v}} \sqrt{1 - \frac{v^2}{c^2}}

    Cette théorie posait les bases de la mécanique ondulatoire. Elle fut soutenue par Einstein, confirmée par les expériences de diffraction des électrons de Davisson et Germer, et surtout généralisée par les travaux de Schrödingeroù λ est la longueur d'ondeh la constante de Planckp la quantité de mouvementm la masse au reposv sa vitesse et c la célérité de la lumière dans le vide.

    Cela permet de calculer la fréquence associée à une masse m:   v = mc2/h. La prédiction que la matière se comporte de matière ondulatoire paraissait insensée à l'époque (et encore maintenant?), tant il est évident que tout dans notre expérience prouve le contraire. la confirmation vint en 1927 quand Davisson et Germer observèrent  pour la première fois des figures de diffraction de faisceaux d'électrons avec un fréquence correspondant exactement à celle prévue par De Broglie. La symétrie entre ondes et corpuscules était rétablie; la lumière, comme la matière, manifestaient un comportement tantôt ondulatoire, tantôt corpusculaire. 


    Historique: La théorie en cours à l'époque pour expliquer l'atome était celle de Bohr (1913).     Ce modèle est un complément du modèle planétaire d'Ernest Rutherford qui décrit l'atome d'hydrogène comme un noyau massif et chargé positivement, autour duquel se déplace un électron chargé négativement.Le problème posé par ce modèle est que l'électron, charge électrique accélérée, devrait selon la physique classique, rayonner de l'énergie et donc finir par s'écraser sur le noyau.

    Niels Bohr propose d'ajouter deux contraintes :

    1. L'électron ne rayonne aucune énergie lorsqu'il se trouve sur une orbite stable (ou orbite stationnaire). Ces orbites stables sont différenciées, quantifiées. Ce sont les seules orbites sur lesquelles l'électron peut tourner.
    2. L'électron ne rayonne ou n'absorbe de l'énergie que lors d'un changement d'orbite.

    Pour commodité de lecture, les orbites possibles de l'électron sont représentées dans la littérature comme des cercles de diamètres quantifiés. Dans le modèle quantique, il n'existe en fait pas de position ni de vitesse précise d'un électron, et il ne peut donc parcourir un « cercle » ; son orbitale peut en revanche être parfois sphérique.


    C'est en 1926, avec la mécanique ondulatoire par Schrödinger et celle de la mécanique des matrices par Heisenberg, Born et Pascual Jordan, que que naît la mécanique quantique. Les deux formalismes seront ensuite intégrés par Paul Dirac la version actuellement en vigueur. Abandonnons à ce stade l'aspect historique pour examiner le comportement quantique.


              e) Le comportement quantique.

    L'objet qui servira d'exemple est l'électron, mais les comportements seront les mêmes pour tous les objets quantiques.

     

     

    e-1)Interprétation classique du phénomène pour la lumière.

    Schéma de principe des fentes de Young.

    Illustration de l'apparition de franges d'interférences.

    Dans l'expérience de Young, on utilise une source lumineuse S monochromatique1 et on interpose une plaque percée de 2 fentes. Celles-ci se comportent comme des sources secondaires S1 et S2. On observe alors, sur un écran placé derrière, des franges alternativement sombres et claires : les ondes issues de S1 et S2 interfèrent entre elles.

    Considérons maintenant un point M situé sur l'écran. Il est éclairé par les ondes lumineuses émises par S1 et S2 qui peuvent s'écrire respectivement, au point M :

     E_1 = E_0 \cdot \sin (\omega \cdot  t)\

     E_2 = E_0 \cdot \sin (\omega \cdot  t -\Delta\varphi)\ ,

    où E0 est l'amplitude2, ω la pulsation des ondes, Δφ leur déphasage et t le temps.

    Δφ caractérise le fait qu'une onde a un certain retard par rapport à l'autre. En effet, pour arriver au point M, le chemin à parcourir n'est pas de la même longueur pour la lumière qui provient d'une source ou de l'autre.

    Si Δφ est un multiple de 2π, les ondes s'ajoutent et on obtient une frange lumineuse sur l'écran, ce que l'on appelle une interférence constructive. En revanche si Δφ est un multiple impair de π alors les ondes s'annulent et on obtient une frange sombre sur l'écran, c'est alors une interférence destructive. Cela explique pourquoi on observe, sur l'écran, des franges successivement claires et sombres. Mais il n'y a pas, a priori, de formule simple permettant de décrire ces franges. Pour simplifier le problème, il est possible de supposer que l'écran est placé loin des fentes.

     

    e-2) Le comportement quantique des électrons.

    On reprend l'expérience faite avec des photons (lumière), mais avec une source ponctuelle d'électrons, vers une plaque comportant deux trous A et B. On peut imaginer qu'on place sur la deuxième plaque des détecteurs régulièrement espacés autour de la position centrale et qui font entendre un petit clic quand ils reçoivent un électron. Faisons l'expérience en bouchant le trou A et en laissant le trou B ouvert. On constate que les électrons arrivent bien un par un car jamais deux détecteurs ne cliquent en même temps. Si on attend suffisamment longtemps, on obtient la courbe de la figure du bas qui donne la répartition du nombre d'électrons reçus en fonction de la position (figure d'interférence). On observe un maximum en face du trou B. L'expérience symétrique (laisser le trou A ouvert et boucher le trou B) donne un résultat analogue, mais avec un maximum en face du trou A. 

    Ouvrons maintenant les deux trous simultanément: on  s'attend à ce que la courbe soit la somme des deux courbes précédentes. En effet, les électrons passent ou bien par A, ou bien par B, donc en tout point de la plaque. Le nombre d'électrons qui parviennent à la plaque est  la somme de ceux qui sont passés par A et de ceux qui sont passés par B. Les premiers vont construire la courbe présentant un maximum en face du trou A les seconds la courbe présentant un maximum en face du trou B. Le dispositif est symétrique, il y aura en moyenne autant d'électrons passant par chaque trou et la courbe totale sera bien donnée par la somme des deux courbes. 

    Mais, surprise! la courbe obtenue n'est pas du tout la somme des deux courbes à laquelle nous nous attendons, elle est identique à celle qui donne l'intensité lumineuse dans le cas de l'expérience avec des photons. On observe l'équivalent de franges d'interférences. Or, ces dernières sont la signature d'un comportement ondulatoire. Une tentative d'explication serait que les électrons, dont certains passent par le trou A et d'autres par le trou B, interagissent de telle manière que les chocs conduisent à ce qu'ils ne puissent arriver que dans certaines alternées de l'écran. Une telle théorie, certes complexe, est possible. Elle a été testée en réduisant progressivement l'intensité du faisceau jusqu'à être assuré que les électrons sont émis un par un avec un intervalle de temps suffisant entre chaque émission.Il devrait y avoir disparition des franges d'interférence. 


    Emission des électrons un par un:

     

     

    Les franges d'interférence se constituent petit à petit

    L'expérience de Young a par la suite été affinée, notamment faisant en sorte que la source S émette un quantum à la fois. Par exemple, on peut à l'heure actuelle émettre des photons ou des électrons un par un. Ceux-ci sont détectés un par un sur l'écran placé après les fentes de Young : on observe alors que ces impacts forment petit à petit la figure d'interférences. Selon des lois classiques concernant les trajectoires de ces corpuscules, il est impossible d'interpréter ce phénomène.

    L'interprétation quantique du phénomène est la suivante (voir chapitre suivant: quelques éléments de mécanique quantique): le quantum émis prend un état superposé lors du franchissement de la plaque : |quantum passe par S1> + |quantum passe par S2> (voir Notation bra-ket). De la fonction d'onde résultante, on peut déterminer pour chaque point de la plaque la probabilité que le quantum y soit détecté. On peut démontrer que la distribution des probabilités suit la figure d'interférence. Autrement dit, le quantum passerait par les deux fentes à la fois, et interfèrerait avec lui-même.

    Densité de probabilité d'un électron au passage des deux fentes

    La figure ci-contre montre l'évolution de la fonction d'onde d'un électron au passage des deux fentes. Les niveaux de gris représentent la densité de probabilité de présence de l'électron. La taille réelle de l'électron est en fait bien plus petite que sa zone de probabilité de présence (en forme de cercle) initiale. On voit nettement que l'électron "interfère avec lui-même": les franges d'interférences sont bien visibles aux sorties des deux fentes (l'électron possède aussi une certaine probabilité de "rebondir" et de former également une figure d'interférence vers l'arrière).




    Destruction de la figure d'interférence: éclairons maintenant les trous pour voir à travers lequel passe chaque électron. Problème de la mesure. 

    Ce n'est donc pas le choc des électrons qui les guide au bon endroit, mais on pourrait se dire qu'il suffit de regarder, électron par électron comment se fait-il que l'électron (ou le photon) interfère avec lui-même?  Quand un électron passe par le trou A, on verra un éclair proche du trou et symétriquement pour le trou B. Si un électron se coupe en deux, on observera deux éclairs simultanés. Que voit-on? On constate que chaque électron passe par un trou et un seul et que jamais un électron ne s'est coupé en deux (on n'observe jamais deux éclairs simultanés).  On peut même retracer, électron par électron par quel trou s'est fait le passage. On ne voit alors pas comment le résultat pourrait être différent de la somme des deux courbes correspondant chacune au bouchage d'un trou. Chaque électron est bien passé par un trou ou par un autre, nous l'avons vu. En effet, la courbe est bien conforme à ce que nous attendons, elle est la somme des deux courbes! Le fait d'avoir modifié le dispositif a changé le résultat et les franges d'interférence ont disparu. Les électrons se comportent dans ce cas comme des particules.

    Destruction de la figure d'interférence

    Le résultat net de l'expérience est qu'on détecte bien que le photon passe soit dans la fente de droite, soit dans la fente de gauche, mais alors la figure d'interférence disparait : le photon n'est plus dans un état superposé suite à la mesure. La détection du photon dans l'une des fentes provoque un "effondrement de la fonction d'onde" et de l'état superposé. Autrement dit, toute tentative de savoir de quel côté le quantum est passé ne permet plus d'obtenir des interférences.

    L'expérience de Young permet donc également de mettre en évidence le problème de la mesure quantique. Ce problème est que les lois quantiques ne prévoient pas directement cet effondrement, et qu'il n'existe donc pas de définition objective et rigoureuse de ce qu'est une "mesure" (voir traitement complet de ce problème dans les articles Chat de Schrödinger et Problème de la mesure quantique).

    Exemple de fullerène, aussi appelé « footballène »

    A l'heure actuelle, des développements sur le sujet permettent de réaliser des expériences très similaires sur des objets de plus en plus volumineux, comme les atomes, les molécules, les condensats de Bose-Einstein.

    En particulier, on a observé des interférences avec des molécules de fullerène.3 Ces expériences démontrent que la vision purement corpusculaire de la matière n'est pas satisfaisante avec des objets de plus en plus gros, d'où la question récurrente de la dualité onde-corpuscule en physique quantique.

     




              2-3) En conclusion de ce chapitre 2 on peut dire que cette expérience renferme l'essentiel du mystère du comportement quantique. 

    Les électrons se comportent tantôt comme des ondes, tantôt comme des particules. C'est ce que Bohr appelait la "complémentarité". Cela ne dit pas être entendu comme la complémentarité de deux aspects coexistant, comme le serait, par exemple la description d'un cylindre par ses projections circulaires et rectangulaires. Elle implique une exclusion, chaque aspect se manifestant au détriment de l'autre.  Aucun objet habituel ne se comporte de cette manière. Comme le dit Feymann: "On peut se demander comment ça marche vraiment. Quel est le mécanisme en oeuvre en réalité? Personne ne connaît aucun mécanisme. Personne ne peut vous donner de ce phénomène une explication plus profonde que la mienne - c'est à dire une simple description."


    Pour Bohr: "De même que le concept de relativité exprime que tout phénomène physique dépend essentiellement du système de référence qui sert à l'encadrer dans l'espace et le temps, de même le concept de Complémentarité est un symbole de la limitation, fondamentale, en physique atomique, de notre représentation habituelle de phénomènes indépendants des moyens d'observation".  


     

    En 1927 Bohr précise:
    " en d'autres domaines de la connaissance nous rencontrons des situations rappelant ce que nous connaissons en physique quantique...
    Ainsi l'intégrité des organismes vivants et les caractéristiques de la conscience des individus autant que celle des cultures humaines présentent des traits d'un tout, qui impliquent pour en rendre compte un mode de description complémentaire"

    Bohr se réfère souvent à Möller un psychologue-philosophe qui écrit à propos d'un étudiant cherchant en vain un emploi :

    " Mes spéculations sans fin m'interdisent d'arriver à quoi que ce soit. Qui plus est j'en viens à penser à ma propre pensée de la situation où je me trouve. Et même je pense que j'y pense et je me scinde en une suite infiniment régressive de "moi" qui se scrutent les uns les autres. Je ne sais sur quel moi me fixer, comme étant le moi effectif et de fait au moment même de m'arrêter à l'un d'eux il est encore un autre moi qui s'y arrête. Je m'y perds, et j'en ai le vertige, comme à plonger du regard dans un abîme insondable et je retire de mes méditations une migraine abominable..."

     


     

    Bohr se réfère également aux travaux  de James ( psychologue) qui définit lui aussi un concept de complémentarité:

    " ...chez certaines personnes la conscience globlale susceptible d'exister peut éventuellement se scinder en parties qui coexistent tout en restant dans l'ignorance mutuelles les unes par rapport aux autres...et se répartissent entre elles les objets de connaissance.
    Accorder un objet à l'une des consciences c'est par là même le soustraire à l'autre ou aux autres. Si l'on excepte un certain fond commun comme la capacité d'user du langage etc...ce dont le moi supér
    ieur a connaissance le moi intérieur reste ignorant et vice versa"

     


     

    Oppenheimer généralisera:

    " La compréhension de la complémentarité de la vie consciente et de son interprétation physique me parait un élément permanent de l'intelligence humaine et l'expression exacte des vieilles conceptions connues sous le nom de parallélisme psychophysique...
    Car la vie consciente et ses relations avec la description du monde physique offrent encore bien d'autres exemples
    relation entre les faces intellectives et affectives de nos vies...entre la connaissance ou l'analyse et l'émotion ou le sentiment...
    relation entre l'esthétique et l'héroïque...entre le sentiment et l'obligation morale qui précède et définit l'action...
    relation entre classique entre l'auto-analyse, la détermination de ses mobiles et de ses fins personnels et ce libre arbitre cette liberté de décision et d'action qui lui sont complémentaires...

    Être affecté par la crainte ou la gaieté, être ému par la beauté, prendre un engagement ou une détermination, comprendre quelque vérité autant de modes complémentaires de l'esprit humain...
    Tous sont partie intégrante de la vie spirituelle de l'homme...
    aucun ne peut remplacer les autres... et lorsque l'on fait appel à l'un les autres sont en sommeil...

    La fécondité et la diversité de la physique, celles plus considérables de l'ensemble des sciences de la nature, la richesse plus familière mais encore étrange et infiniment plus grande de la vie de l'esprit humain, accrues par des moyens complémentaires, non immédiatement compatibles et irréductibles l'un à l'autre sont plus qu' harmonieuses,
    elles sont éléments de la peine de l'homme et de sa splendeur, de sa débilité et de sa puissance, de sa mort, de son existence éphémère et de ses immortels exploits..."


     

     

    Le philosophe et scientifique Lupasco va plus loin...
    pour lui le problème vient que l'homme reste marqué par la la logique classique marquée par la notion d'objet et par le principe de non contradiction...

    Or cette logique binaire n'arrive pas à rendre compte de l'infinie diversité du Réel...
    pour lui l'antagonisme est à la base de tout...
    et l'univers est par nature contradictoire...
    Pour lui le comportement quantique est fondamental... car au fond des choses dans la mesure où il est la loi des phénomènes microscopiques à la base de l'Univers...

    Il refuse la logique classique du oui ou du non, pour lui seule une logique du tiers inclus peut rendre compte de la réalité
    Actualisation- Potentialisation- état t ...
    l'actualisation est ce que l'on mesure...
    la potentialisation ce qui existe... et qui n'est pas pris en compte
    t   l'équilibre entre les deux... l'état auquel on doit arriver

    Nicolescu ( physicien)  introduit dans le schéma précédent la notion de niveau de Réalité ... qu'il ne faut pas confondre avec le niveau de représentation des choses ou d'organisation.
    le niveau de réalité correspond à des systèmes qui restent invariants sous l'action d'une loi: exemples l'échelle des particules, l'échelle de l'homme  ou encore l'échelle des planètes
    ainsi ce qui est contradictoire à un niveau 1 ( onde-corpuscule, séparabilité-non-séparabilité) peut être unifié au niveau 2 avec l'état t ( comme le montre le triangle ci dessous...
    unification par le haut en quelque sorte...)


     

     En conclusion, je pense que cette complémentarité représente l'aboutissement de la "fin des certitudes" dans la pensée humaine, un retour à la complémentarité corps-esprit (Jésus n'a-t-il pas dit "rend à César ce qui est à César et à Dieu ce qui est à Dieu"). 

    Nietzsche a écrit "Dieu est mort"... La désacralisation semble être "accomplie", le matérialisme se croît triomphant en ce début de "l'ère du Verseau". Rien n'est moins sûr. La précipitation des évènements mondiaux et personnels, l'augmentation de la violence et de l'absurde montrent peut-être que la complémentarité dont parle Bohr n'est pas bien assimilée et comprise??? 


    Prochain article: Les limites de la connaissance 6) Réalisme et monde quantique 

    6-2: éléments de physique quantique


    votre commentaire
  • Les limites de la connaissance 5) déterminisme et chaos. 

    deuxième partie: le chaos déterministe

     

     

     

     

     

    fractale: ensemble de Julia

    fractale: chou romanesco

     

     

     

    Préambule

     

    La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


    Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gôdel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr  en mettant en cause toute notre manière de penser.

    L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?



    Les limites de la connaissance 5) déterminisme et chaos. 

    deuxième partie: le chaos déterministe


     

    Idées générales de l'article:

    Le paradigme de la possible mathématisation de la nature doit être revu. Quels que soient les moyens théoriques ou techniques dont on disposera, quel que soit le temps qu'on acceptera de passer sur une prédiction, il existera toujours un horizon temporel infranchissable dans les prédictions

    L'univers ne peut plus être considéré comme une grande machine dont il est possible de prévoir le comportement au moyen de formules mathématiques, même complexes.  L'équivalence entre déterminisme et prédictibilité est morte. On peut croire que le monde dans lequel nous vivons est déterministe (ce que nuance la physique quantique, voir le prochain article), il n'en n'est pas moins non-prédictible. C'est ce que signifie l'expression "chaos déterministe".



    1) Présentation du problème.


    Afin d'effectuer des prédictions sur les grandeurs physiques, on utilise les lois qui en régissent l'évolution et la considération du système est indissociable de celle de celle de ces lois. Se donner la description d'un système correspond à modéliser la réalité. Un "modèle" est l'ensemble constitué par la spécification d'un système physique et la donnée des lois auxquelles il obéit. Il est utilisé pour décrire une portion du monde. 

    Comme on l'a vu dans l'article 3), le déterminisme des lois est habituellement toujours associé à la prédictibilité. Il est légitime de s'attendre à ce qu'on puisse prédire les états futurs en appliquant à l'état initial la fonction déterministe qui transforme cet état en l'état à un instant t ultérieur quelconque. On est parfois obligé de procéder par approximations en raison de la trop grande complexité des résultats, mais ces approximations sont suffisamment précises pour que l'incertitude sur les prédictions soit maîtrisée et limitée. Négliger une quantité inférieurs à une certaine valeur se traduit par une incertitude du même ordre de grandeur sur le résultat et de petites modifications entraînent de petits effets. On peut prouver que les systèmes régis par des équations différentielles linéaires adoptent toujours ce comportement agréable. Jusqu'à une date récente, le sentiment dominant était que la majeure partie des systèmes dynamiques se comportait de cette manière. En fait, on avait toujours privilégié l'étude des systèmes intégrables. Mais avec la mécanique céleste, les travaux de Poincaré on montré que cet espoir était vain. On découvrit petit à petit que cette difficulté, loin d'être exceptionnelle, était le règle pour de très nombreux systèmes dynamiques non linéaires. Un petite erreur sur l'état initial s'amplifie de manière exponentielle, et l'évolution, bien que parfaitement déterministe est imprévisible! Poincaré était conscient de ces limites qui signifient l'échec de la méthode analytique et l'impuissance des mathématiques à calculer le comportement d'un système physique aussi simple que celui de trois corps en interaction gravitationnelle. 

    Devant son impuissance à calculer exactement les trajectoires, il s'intéressa à leur représentation dans l'espace des phases. 

     

     

    Les physiciens ont l'habitude de travailler dans ce qu'on appelle "l'espace des phases", qui est un espace imaginaire, ici à 4 dimensions (les 2 coordonnées de dimension des positions et la quantité de mouvement = produit masse X vitesse). A chaque instant, l'objet observé (une boule par exemple), a une certaine position (Qx, Qy) et une quantité de mouvement (Px, Py), son état est don déterminé par ces 4 coordonnées, 2 de position et 2 de vitesse. On dit que le système a 2 degrés de liberté et on lui associe un point de coordonnées (Qx, Qy, Px, Py) dans l'espace des phases à 4 dimensions. D'une manière générale, l'état d'un système est déterminé par N coordonnées de position et N coordonnées de vitesse, soit N degrés de liberté.

     


    2) Comportement des systèmes mécaniques.


              a) Premier exemple: L'espace des phases et le pendule sans frottement.


     

    Poincaré fera un grand usage de cet espace pour introduire desraisonnements géométriques en mécanique céleste et pour étudier le problème des trois corps. Ces études seront à la base de la théorie du chaos.

    Concrètement, dans l'exemple d'un gaz constitué de N particules, l'espace des phases sera à 6N=2M dimensions. On aura 3N coordonnées de position et 3N coordonnées de quantité de mouvement  . Ces coordonnées sont dites généralisées car elles peuvent correspondre à différents systèmes de coordonnées cartésiens, sphériques, hyperboliques etc...

    Plus généralement, les coordonnées généralisées   et   représentent des variables conjuguées d'un système mécanique arbitraire. Dans le cas d'un gyroscope, d'une toupie ces coordonnées seront des angles dans le premier cas et des moments cinétiques dans le second.

     

     

    La trajectoire d'un système mécanique est donc représentée par celle d'un point à 2M coordonnées dans l'espace des phases. Si l'on considère différentes conditions initiales, on aura différentes courbes dans cet espace. Dans le cadre de la mécanique statistique cela permettra d'étudier le comportement moyen d'un ensemble de systèmes mécaniques identiques sous la forme d'un fluide de particules. En théorie du chaos, l'espace des phases permet de visualiser que les trajectoires de systèmes non-linéaires avec différentes conditions initiales se retrouvent  parfois proches de certaines formes géométriques dans cet espace. On parle alors d'attracteur étrange car tout se passe comme si ces formes étranges attiraient les points représentant un système mécanique pour les forcer à rester dans leur voisinage.

    Considérons maintenant le système physique constitué par un pendule de longueur l supposé sans frottement. Son état est défini par l'angle θ

     

    \ddot{\theta} + \omega_0^2 \sin\theta = 0  avec  \omega_0^2 = \frac{g}{l} et \ddot{\theta} = \frac{d {\dot{\theta}}}{d t}

     

     pour de petites oscillations, on peut confondre sin(θ) avec θ. On obtient alors l'équation :
    \ddot{\theta} + \omega_0^2 \theta = 0 avec   \omega_0^2 = \frac{g}{l}

     

    Cette équation se résout (s'intègre) et sa solution est:

    \theta(t) = \theta_0 \cos(\omega_0 t)\, ; de période  T_0 = \frac{2\pi}{\omega_0} = 2\pi\sqrt\frac{l}{g} .

    On a donc remplacé l'étude de l'équation qui représente exactement le mouvement du pendule, mais qui est difficile à résoudre, par une équation plus simple à résoudre, mais qui ne représente qu'approximativement le mouvement. Liapounov a montré en 1895 que c'était justifié pour de petits angles, et d'autant meilleure que l'angle est petit. L'espace des phases est ici un espace à 2 dimensions avec pour coordonnées l'angle θ et la vitesse angulaire d θ/dt.

    Ecarté de la verticale, le pendule va osciller  de part et d'autre. Le mouvement sera périodique et la trajectoire dans l'espace des phases sera une ellipse (l'équation du mouvement est sinusoïdale). Pour un angle différent, l'ellipse aura la même forme mais sera à l'intérieur de la précédente si l'angle est plus petit, ou à l'extérieur pour un angle plus grand. Si on imprime une vitesse initiale, il existe un seuil au-delà duquel, le pendule va dépasser la verticale et tourner autour de son axe, mais l'équation du mouvement devient non linéaire et non explicite en fonction du temps, l'approximation des petits angles ne convient plus, il faut faire appel aux fonctions elliptiques. Alors que faire? Dans le cas du pendule, la méthode permettant de connaître toutes les trajectoires dans l'espace des phases est fondée sur le fait que l'énergie du système est conservée au cours du mouvementLes trajectoires sont donc des courbes d'équation E = constante. L'ensemble de toutes les trajectoires dans l'espace des phases, valable pour toutes les conditions initiales, est donné par le graphique suivant appelé "portrait de phase" du pendule. La limite, la ligne ondulée, représente les mouvements pour lesquels le pendule tourne autour de son axe.


     

     Mais il faut remarquer que cela s'est fait au détriment de la possibilité de décrire ces mouvements en fonction du temps. Bien que l'équation du mouvement soit non linéaire, le pendule a un comportement conforme au paradigme classique (si on part de deux conditions initiales proches, les trajectoires seront voisines l'une de l'autre et une petite erreur sur leur détermination aura comme comme conséquence une petite erreur sur les trajectoires). Un tel système sans frottement est "non dissipatif". Son énergie totale reste constante lors de son évolution, il est dit "conservatif" ou "hamiltonien". On dit alors que l'énergie est une intégrale du mouvement. De plus, on constate que toutes les trajectoires sont périodiques. 

    Cette méthode utilisée pour le pendule sera aussi applicable pour des systèmes décrits par des équations non intégrables. Elle consiste à examiner le portrait de phases, ensemble des trajectoires possibles dans l'espace des phases du système. Dans le cas du pendule, la conservation de l'énergie permet de le tracer aisément. Dans le cas général, on peut procéder par extrapolations successives. En effet, en chaque point de l'espace des phases, l'équation fixe l'orientation de la tangent à la trajectoire. On peut ainsi tirer des enseignements sur le comportement du système, mais au détriment de la dépendance directe en fonction du temps qui n'est plus accessible. Cela conduit à se concentrer sur le comportement à long terme, qu'on appelle "comportement asymptotique". La réponse à cette question est donnée par la forme asymptotique des trajectoires dans l'espace des phases (des trajectoires à très long terme). Dans la cas du pendule sans frottement, à chaque condition initiale correspond une trajectoire différente, un ellipse ou une ligne ondulée dans l'espace des phases.


               b) Le pendule amorti et l'oscillateur de Van Der Pol.

    Un pendule sans frottement n'est que théorique, un pendule réel, soumis à des forces de frottement, n'est pas périodique et finit toujours par s"arrêter. L'énergie ,'est pas constante mais décroît. Ce n'est pas un système non dissipatif conservatif, mais un système dissipatif amorti. 

    L'équation qui le décrit est:  avec . L'énergie varie selon la loi dE/dt = -λd \theta\,/dt (avec λ = amortissement). Si λ  > 0 le pendule oscille de manière d'autant plus réduite que sa vitesse est grande, pour s'immobiliser à la verticale, au point 0 (angle et vitesse nulle) de l'espace des phases. Les trajectoires de phases sont des spirales aboutissant à ce point 0, "appelé attracteur point fixe". Il caractérise le comportement à long terme du pendule, la forme asymptotique des trajectoires de ces oscillations amorties.

    Modifions la forme des équations avec un terme qui joue un rôle d'amortissement pour les grandes amplitudes, mais d'amplification pour les petites amplitudes. On aura alors un "oscillateur entretenu" ou de "Van Der Pol". Son équation est: 


    Intuitivement on peut voir qu'il va osciller de manière régulée. Quand l'amplitude des oscillations est grande, le facteur complémentaire joue le rôle d'un amortisseur, et celui d'amplificateur quand elles sont petites. Le comportement à long terme tend vers une trajectoire fermée unique et stable autour de l'origine, appelée "cycle limite" par Poincaré. Ce cycle limite est donc un attracteur, comme le point fixe "0" vu précédemment. Dans cet exemple, le comportement du système à long terme reste encore périodique et donc prédictible. C'est une des caractéristiques des systèmes dont l'espace des phases est à 1 ou 2 dimensions: leurs mouvements sont réguliers et en fait leurs équations sont toujours intégrables. 


                 c) Les trajectoires quasi périodiques

    La configuration d'un système à N degrés de liberté est défini par N variables de position pi (p correspond à xi et qi correspond à mvi) et N variables de quantité de mouvement qi. Son espace des phases est à 2N dimensions et peut être décrit par  un ensemble de 2N équations différentielles, ce sont les équations de Hamilton. Intégrer le système, quand c'est possible, revient à trouver un changement de variables permettant de découpler les 2N équations pour les ramener à N ensembles, non liés de deux équations représentant chacun un système à un degré de liberté. Les nouvelles coordonnées deviennent (I,\theta\,), appelées "actions" et angles" et le hamiltonien ne dépend plus que de les variables d'action: H = H(I). Les N systèmes  de deux équations du mouvement deviennent simples et peuvent être intégrés. On aboutit à des trajectoires périodiques (cercles), parcourues à fréquence constante dans les sous-espace de phase correspondant. On a donc un produit de cercles, chacun avec une fréquence propre. La trajectoire du système est alors contenue dans un tore de dimension N qu'on note Tn . (Le produit de deux cercles revient à à faire effectuer à un des cercles un mouvement de rotation en suivant l'autre cercle. Le résultat ressemble à un pneu ou à une chambre à air). Chacune des variables d'action H(I) est une constante du mouvement. Pour un système linéaire, on peut toujours trouver un tel changement de variables (il est donc intégrable). Mais c'est beaucoup plus rare quand le système n'est pas linéaire. Il es résulte que lorsqu'un système à N degrés de liberté est intégrable, il existe N constantes de mouvement. En revanche, s'il est impossible de trouver N constantes de mouvement, le système n'est pas intégrable. (c'est la méthode découverte par Liouville et dont Poincaré a montré qu'elle ne s'appliquait pas au problème de trois corps).

    Le point qui représente l'état du système à un instant se déplace dans le temps en combinant les deux mouvements de rotation possibles, ce qui aboutit à le faire s'enrouler en spirale autour du tore. Si le rapport f1/f2 des fréquences de rotation est est rationnel, la trajectoire complète est périodique et le point revient exactement à son point de départ (par ex: 2/5 donne 2 tours sur le 1e cercle et 5 tours sur le 2e). Mais si ce rapport est irrationnel, jamais le système ne reviendra à son point de départ, mais il repassera arbitrairement près de ce point si on attend assez longtemps (cela résulte d'une propriété des nombres rationnels dans l'ensemble des nombres réels appelée "densité", à savoir qu'un nombre réel peut être approché arbitrairement près par un nombre réel)La trajectoire n'est plus périodique, elle couvre de façon dense la surface du tore en repassant arbitrairement près de son point de départ, c'est pour cette raison qu'on appelle quasi périodique ce type de mouvement.

    Résumé: tout système conservatif à N degrés de liberté, lorsqu'il est intégrable (ce qui est loin d'être toujours le cas), adopte un comportement périodique ou quasi périodique dont la trajectoire s'inscrit dans un tore de dimension N. Si le rapport des fréquences est rationnel, le mouvement est périodique et la trajectoire s'inscrivant sur le tore. Sinon le système est quasi périodique et la trajectoire couvre le tore de façon dense.


              d) Trajectoires périodiques, quasi périodiques et prédictibilité.

    La démonstration de Poincaré montre que tous les systèmes conservatifs ne sont pas forcément intégrables, ceux qui le sont étant plutôt l'exception. Pour le problème des trois corps, Poincaré a prouvé qu'il n'existe pas de constante de mouvement autre que l'énergie et les projections du centre de masse et du moment cinétique sur les 3 axes, soit 7 constantes du mouvement. Si le problème était intégrable, il comporterait 9 quantités conservées puisque le système a 9 degrés de liberté. Comment faire alors pour pour traiter le problème? 

    Dans le cas de la mécanique céleste, bien qu'il ne soit pas intégrable, le problème en est proche car la perturbation qu'apporte chaque planète au mouvement des autres est faible devant l'effet gravitationnel du soleil. On peut alors encore trouver des coordonnées (I,\theta\,)  pour lesquelles  H(I, ) Ho(I) + εΗ1(I,) avec ε petit-->0Le mouvement régi par le hamiltonien Ho(I) est intégrable puisqu'il ne dépend que de I. Il représente le mouvement Képlérien des planètes. Le hamiltonien  εΗ1(I,) représente les perturbations et est petit devant H. La méthode des perturbations revient à trouver de nouvelles coordonnées (I',') sous forme de séries par rapport à ε et telles que le hamiltonien ne dépend plus que de I'. La difficulté n'est liée qu'à la complexité des calculs, qui est accrue pour chaque terme complémentaire. 

    Cependant, la méthode semblait créer des anomalies dans les résultats. La raison en est que ces séries ne sont pas convergentes et leur utilisation n'a qu'une portée limitée. Au-delà d'un certain nombre de termes, les calculs s'éloignent du vrai résultat et les conclusions sont alors fausses: la méthode analytique trouve ici ses limites. Comme on l'a vu précédemment, Poincaré a développé des méthodes plus qualitatives, mais avec l'impossibilité de d'obtenir la dépendance explicite des coordonnées en fonction du temps. Cela conduit à se limiter à l'étude de la forme des trajectoires dans l'espace des phases et à ne s'intéresser qu'à leur forme asymptotique. Mais même ainsi, le problème reste en général trop complexe. Pour cette raison, Poincaré fut amené à développer des méthodes de simplification permettant d'obtenir des renseignements sur les trajectoires (présence de périodicité, stabilité) sans avoir à manipuler leurs équations complexes.


               e) Section de Poincaré.


    L'espace des phases permet d'obtenir des informations sur le comportement à long du système terme sans résoudre explicitement les équations du mouvement. Malheureusement, il est en pratique extrêmement complexe, voire totalement impossible d'y étudier directement les trajectoires.  Dans le cas du problème à 3 corps, il est déjà à 18 dimensions (3 corps avec pour chacun 3 coordonnées d'espace et 3 pour la quantité de mouvement). On commence par s'intéresser au comportement asymptotique (à long terme) en laissant de côté les comportements transitoires. Ensuite, au lieu d'étudier une trajectoire dans l'espace des phases complet, on s'intéresse aux intersections avec un plan qui la coupe. On obtient dans ce plan un ensemble de points qui forme "une section de Poincaré".
    Pour représenter intuitivement cette description, plaçons nous dans un espace des phases à 3 dimensions. Une trajectoire périodique simple sera par exemple une courbe fermée revenant à son point de départ après un tour. Pour une telle trajectoire, notée [P(0)] sur le schéma, la section de Poincaré sera réduite au point 0, intersection de la courbe fermée avec le plan. Une trajectoire périodique qui fait 3 tours avant de revenir à son point de départ aura 3 une section constituée de 3 points [x, P(x), P2(x)] sur le schéma. Une telle simplification ne permet certes pas de connaître la forme précise de la trajectoire, mais elle permet d'obtenir des renseignements qui seraient inaccessibles par l'étude directe. Pourquoi? On vient de voir qu'une trajectoire périodique était caractérisée par une section de Poincaré constituée d'un ensemble fini de points. Or, dans certains cas, il est possible de calculer explicitement la transformation (dite "application du premier retour") qui permet de passer d'un point à un autre dans la section de Poincaré. De cette manière il est alors possible de savoir si la trajectoire est périodique. C'est ainsi que Poincaré s'y est pris pour le problème des 3 corps. La section de Poincaré sera en effet l'intersection du tore que couvre de façon dense la trajectoire quasi périodique avec le plan de coupe (courbe fermée continue). 


              f) Les comportements chaotiques.

    Pour certaines conditions initiales, les trajectoires correspondantes d'un système non intégrable ont une section de Poincaré qui n'est ni réduite à un point, ni analogue à une courbe fermée continue, mais semble remplir toute une région de manière aléatoire. Elles n'ont aucune régularité et apparaissent chaotiques. Dans la démonstration de Poincaré, toute loi de conservation supplémentaire aurait permis de contraindre les trajectoires à se trouver sur les courbes analytiques ayant une forme lisse. Il suffit alors de trouver une trajectoire qui ne respecte pas cette contrainte pour montrer qu'il n'existe pas d'autre loi de conservation. Or Poincaré montra qu'il existe une infinité de trajectoires qui ne se trouvent pas sur une telle courbe (dans ce qu'on appelle l'enchevêtrement homocline). Dans une version simplifiée du problème des 3 corps (problème restreint de hill), on considère que le 3è corps a une masse négligeable devant celles des 2 autres. Les 2 corps massifs se déplacent dans un plan sur des ellipses ayant un foyer commun. On suppose que le 3è corps se déplace sur une droite perpendiculaire au plan et passant par le foyer commun. Sa vitesse et sa position sont représentées par un point dans un plan qui est un sous-ensemble de l'espace des phases complet. On prend ce plan comme section de Poincaré. Ainsi, en étudiant ce qui se passe au voisinage d'une trajectoire périodique matérialisée par un point unique, on obtient une figure qui a une complexité telle qu'elle a fait dire à Poincaré "...je ne cherche même pas à l'expliquer...". 

    Comme on s'est placé dans l'espace des phases, la signification de ce résultat est la suivante: Si les conditions initiales d'un système à 3 corps sont telles que celui-ci adopte un mouvement périodique, une modification infime de ces conditions amène le système à adopter un comportement chaotique. Comme par ailleurs il n'est pas possible de connaître avec une précision infinie les conditions initiales d'un système physique réel, il deviendra impossible de prévoir le comportement asymptotique du système. 

     

    3) Le chaos dans la nature.

     

              a) Un détour par la météorologie.

    Cela débute en 1960 quand le météorologue Edward Lorenz s'intéresse aux équations de la convection atmosphérique. Ce sont des équations différentielles issues de la théorie de la dynamique des fluides. Elles sont extrêmement complexes et l'on ne sait pas les résoudre explicitement. Lorenz, après les avoir simplifiées le plus possible, cherche alors quel est le comportement prédit par ces équations et procède par approximations successives grâce à un ordinateur. La description de l'atmosphère est donnée à un instant par la température, la pression, la vitesse de l'air... en différents lieux, et la suite de ces nombres représente l'état du système. On rentre l'état initial et on laisse la machine calculer les états suivants qui sont uniques à chaque instant puisque le système est déterministe. On obtient ainsi de proche en proche l'évolution temporelle et donc la description de la convection. En 1961, Lorentz veut prolonger sur une durée plus longue une simulation faite sur une certaine période. Plutôt que de repartir sur le même état initial et pour gagner du temps, il introduit l'état obtenu à la moitié de sa simulation précédente. Mais, à sa grande surprise, l'ordinateur n'a pas répété les résultats de la deuxième moitié de la simulation précédente. Les résultats ont progressivement divergé pour bientôt ne plus rien avoir de semblable. Que s'est-il passé? En fait, l'ordinateur garde en mémoire des nombres à 6 chiffres dont seules 3 décimales sont imprimées. Lorenz a rentré dans la simulation les nombres imprimés, arrondis à 3 chiffres. De même que pour le problème des 3 corps, une petite erreur sur l'état initial a été amplifiée de telle sorte qu'elle a produit un résultat divergent pour l'évolution (c'est le phénomène de "sensibilité aux conditions initiales"que nous avons vu précédemment). Cette propriété est devenue célèbre sous le nom "d'effet papillon". 

    Il faut bien comprendre que le système évolue de façon déterministe et qu'à partir d'un état initial précis, l'évolution est bien unique mais, aussi minime soit l'imprécision sur cet état initial, il arrive un moment où l'erreur de prédiction est du même ordre de grandeur que la prévision elle-même, la rendant inutilisable. On retrouve cet aspect dans le phénomène de turbulence pour lequel David Ruelle et  Floris Takens  proposèrent en 1971  un nouvelle façon de comprendre la turbulence en faisant appel à un concept nouveau, celui d'attracteur étrange

               

               b) Les attracteurs étranges.

    Attracteur de Lorenz


    Le systeme de Lorenz s'écrit : 

     Il comporte 3 variables dynamiques . On peut visualiser son évolution dans un espace à 3 dimensions, mais il n'est pas intégrable et on ne peut donc expliciter une solution donnant (x,y,z) en fonction du temps. Pour calculer les trajectoires, on procède de proche en proche, à partir d'un point initial en calculant avec un ordinateur le point suivant, suffisamment proche pour qu'on puisse identifier la trajectoire et sa tangente. Et on recommence à partir du point obtenu. Le résultat est un objet constitué de deux anses qui tournent autour de deux points fixes. A partir d'un point O1, la trajectoire commence par faire par exemple 2 tours autour de l'anse 1, puis 1 tour autour de l'anse 2 pour revenir faire 3 tours autour de l'anse 1 etc... Si on part d'un point O2 proche de O1, on s'attend à une trajectoire très voisine de la première. En réalité les deux trajectoires se séparent très vite. La deuxième peut faire aussi 2 tours autour de l'anse 1, mais 3 tours autour de l'anse 2, là où la première n'en faisait qu'un. A partir de là, les deux trajectoires seront  déconnectées. Pour un point O3 on obtiendra une nouvelle trajectoire différente des deux premières. Cependant, si on  laisse tourner l'ordinateur assez longtemps, l'allure globale des trajectoires obtenues est identique quel que soit le point de départ: un objet avec deux anses. En effaçant le début des trajectoires, on obtient la même figure. Cela signifie que quelles que soient les conditions initiales du système, celui-ci finit toujours par évoluer le long d'une trajectoire unique. Ce type de trajectoire qui les attire toutes a été appelé un "attracteur". Dans les cas précédents, l'attracteur était un point fixe (pendule sans frottement) ou un cycle limite (oscillateur de Van Der Pol). L'attracteur de Lorenz est beaucoup plus étrange, d'où son nom d'attracteur étrange. Ce n'est pas une courbe ni une surface lisse, mais un objet fractal. Un exemple d'objet fractal est l'ensemble triadique de Cantor, qui est purement mathématique. Le premier exemple physique plus concret est a été donné par Hadamard sur les géodésiques (lignes de plus courte longueur qui joignent un point à un autre) de surfaces à courbure négative. Il montra en effet qu'aussi près qu'on se place sur une géodésique qui reste à distance finie, il existe une géodésique qui part à l'infini. Cela signifie que si on se donne la position initiale d'un point sur une telle surface, aussi petite soit l'incertitude sur cette position, on sera dans l'impossibilité de prédire si le point restera à distance finie ou s'il s'éloignera à indéfiniment. Les progrès dans l'étude des systèmes dynamiques réels ont montré que non seulement de tels systèmes existent, mais qu'ils constituent la généralité, les systèmes périodiques ou quasi périodiques étant l'exception. la distance entre deux trajectoires initialement aussi proches qu'on veut finiront toujours par se séparer; la distance entre elles croît exponentiellement en exp(λt) où λ est le coefficient de Lyapunov. "Le temps caractéristique" est le temps nécessaire pour que les écarts initiaux soient multipliés par 10. 


              d) Conséquence sur les limites de la prévision du temps.

    La preuve rigoureuse de l'existence du chaos dans les équations de Lorenz n'a été apportée qu'en 1995 et a nécessité l'intervention de l'ordinateur. Le preuve mathématique dans un modèle réel est bien hors de notre portée. Mais le phénomène de dépendance sensitive aux conditions initiales est un argument extrêmement fort pour penser que tout modèle plus réaliste y sera aussi soumis. Un question est alors de connaître le temps caractéristique du système dynamique constitué par l'atmosphère. On peut, en utilisant la théorie de la turbulence de Kolmogorov, évaluer la vitesse des perturbations dans l'atmosphère (suite aux nombreuses fluctuations de densité, de vitesse etc...). Ces fluctuations microscopiques échappent à nos moyens d'investigation et imposent une limite à la précision avec laquelle on peut se donner l'état initial: même avec des capteurs répartis et distants de 1 mm les uns des autres (ce qui est infaisable en pratique), on ne pourrait mesurer les fluctuations qui se situent plusieurs ordres de grandeur en dessous (le micron par ex). Or le temps nécessaire pour que des fluctuations microscopiques deviennent macroscopiques (le cm par ex), est de quelques mn. 

    Conclusion: comme il est impossible de connaître l'état initial avec une précision supérieure à l'échelle des fluctuations microscopiques, et que celles-ci s'amplifient pour atteindre l'ensemble du globe en moins de 15 jours, toute tentative de prédire le temps au-delà de cet horizon est vouée à l'échec. Nous ne saurons donc jamais le temps qu'il fera le mois suivant (a moins qu'on découvre ultérieurement un processus physique qui supprime de fait le chaos atmosphérique).

     

              e) Les systèmes chaotiques simples.

     

    On pourrait  penser que le comportement chaotique est lié aux systèmes complexes, il n'en n'est rien. Un espace des phases à 3 dimensions est suffisant pour qu'un comportement chaotique survienne. Un exemple purement mathématique de comportement chaotique  est l'Application logistique simple x_{n+1} = \mu x_n(1 - x_n)~ où μ est une constante fixée entre 1 et 4 et où X0 est  pris entre 0 et 1. Pour  μ compris entre 1 et 3, l'itération mène à une valeur unique quelque soit le point de départ X0. Par exemple, pour  μ = 1,2,  on aboutit après plusieurs itérations à une valeur qui ne change plus, de l'ordre de l'ordre de 0,167 (pour μ =2, on aboutit à une valeur fixe de 0,5). Ces valeurs sont de attracteurs points fixes. Quand on dépasse 3, la valeur limite oscille entre 2 nombres distincts (0,558 et 0,764 pour 3,1). C'est un cycle de période 2. Pour μ =3,5 un cycle de période 4 apparaît (0,5 et 0,875 - 0,383 et 0,827). Pour μ = 3,55 le cycle passe à 8. Puis le doublement de période s'accélère et pour μ = 3,58 la période a doublé un nombre infini de fois. On obtient alors un mouvement chaotique où les valeurs itérés semblent ne plus suivre aucune règle. Pour 3,581 par exemple, la réitération donne une suite de nombres qui paraissent aléatoires (c'est d'ailleurs par des procédés de ce type que les ordinateurs fournissent des nombres aléatoires). Le comportement ultérieur est remarquable car on retrouve des intervalles où l'ordre réapparaît. L'apparition du chaos mathématique n'est donc nullement lié à la complexité.

    Un autre exemple de chaos lié à un système simple est fourni par les un billard convexe où des collisions ont lieu avec des obstacles ronds (les chocs sont supposés parfaitement élastiques et les frottements négligeables). Si les boules heurtent une bande, elles rebondiront et les trajectoires, qui font en angle a entre elles, resteront voisines. Mais si elles heurtent un obstacle rond, l'angle de divergence des trajectoires est multiplié par 2 après le rebond. Deux trajectoires voisines divergeront au bout de quelques rebonds et une boule qui heurtera un obstacle pour une trajectoire, l'évitera pour l'autre trajectoire.


    3) conclusion.

    Pendant des siècles, on a cru en la toute puissance de la méthode analytique. Les mathématiques étaient supposées permettre de calculer le comportement et l'évolution de tous les systèmes physiques si on dispose de des équations correspondantes et de moyens de calcul suffisants. C'est ce qui a conduit Eugène Wigner à parler de "l'efficacité déraisonnable des mathématiques". Cette belle confiance se révèle fausse puisque non seulement il existe des systèmes pour lesquels toute prévision est impossible mais, de plus, ces systèmes représentent la grande majorité des systèmes physiques. Les mathématiques ne nous permettent pas de plus de prédire l'évolution à l'infini, quelque soit la précision avec laquelle on se donne les conditions initiales. Il faudrait les connaître avec une précision infinie, ce qui est impossible. C'es ce qui permet à Ivar Ekeland de dire: "Plus jamais on ne dira: telle équation représente tel phénomène. Il faudra ajouter: le système est chaotique, son temps caractéristique est tant...si vous voulez calculer telle quantité, utilisez telle méthode plutôt que telle autre. En d'autres termes, on ne pourra plus énoncer une théorie scientifique sans dire ce qui est calculable dans cette théorie et ce qui ne l'est pas, et sans indiquer dans chaque cas les moyens de calcul appropriés...".

     

    Déjà au début du siècle, la démonstration de  Hadamard  sur les géodésiques des surfaces à courbure négative avait conduit Duhem à à parler "d'une déduction mathématique à tout jamais inutile aux physiciens". Les travaux ultérieurs on montré que cette situation n'est pas exceptionnelle, mais représente en fait la généralité. Les travaux les plus récents en mécanique céleste ou en météorologie nous montrent même que les limites de notre pouvoir de prédiction touchent des aspects essentiels du monde puisque nous ne pourrons jamais prédire le temps au-delà d'un certain horizon assez proche  ni savoir si la terre changera un jour d'orbite. 

    Bien sûr on peut relativiser l'importance de ces résultats en remarquant que l'avenir du système solaire reste prédictible pour quelques dizaines de millions d'années ou que nous pouvons connaître le temps qu'il fera sur une semaine. Notre environnement immédiat n'est pas un univers de chaos imprévisible, la science n'aurait pas pu obtenir les résultats extraordinaires qu'elle a atteints et l'étude même du chaos n'aurait pu être entreprise. La turbulence n'empêche pas les avions de voler ni les turbines de tourner, au contraire. Il s'ensuit que quelque soit la pertinence pratique de ces conclusions, leur pertinence épistémologique et philosophique est claire: dans les cas présentés, le mouvement est imprévisible au bout de quelques dizaines de secondes et des objets très rudimentaires échappent et échapperont toujours à nos calculs! 

    Face à notre impuissance il faut souligner que le paradigme de la possible mathématisation de la nature doit être revu. Quels que soient les moyens théoriques ou techniques dont on disposera, quel que soit le temps qu'on acceptera de passer sur une prédiction, il existera toujours un horizon temporel infranchissable dans les prédictions. Cet horizon est variable selon la nature du système et les limites de principe dans la précision qu'on peut obtenir sur les conditions initiales mais il est fini dans tous les cas. 

    L'univers ne peut plus être considéré comme une grande machine dont il est possible de prévoir le comportement au moyen de formules mathématiques, même complexes. Au siècle dernier (fin 19e et début du 20e siècle), une telle affirmation aurait paru scandaleuse, et aurait interprétée comme un abandon du déterminisme et de fait ,comme la fin de la science et le retour aux superstitions d'autrefois. Les progrès de la recherche ont montré qu'un échappatoire est possible et qu'un système peut être déterministe et non prévisible. L'équivalence entre déterminisme et prédictibilité est morte. On peut croire que le monde dans lequel nous vivons est déterministe (ce que nuance la physique quantique, voir le prochain article), il n'en n'est pas moins non-prédictible. C'est ce que signifie l'expression "chaos déterministe".


    Remarque: on peut envisager d'augmenter la précision avec laquelle on se donne les conditions initiales et se donner une échelle de temps souhaitée pour l'horizon temporel. On peut alors penser que tout système restera prévisible en principe. Dans le cas de l'atmosphère il reste l'impossibilité pratique de de disposer des moyens de mesure permettant de connaître l'état de chaque molécule d'air. Mais l'objection plus fondamentale est que la mécanique classique n'est plus le cadre adapté et il faut se placer dans le formalisme de la mécanique quantique. Or en raison du principe d'incertitude de Heisenberg, on se trouve face à une limitation de principe sur la mesure des conditions initiales. La conclusion sur la limitation de la prévision est encore valable, mais elle devra être réexaminée dans ce nouveau cadre (voir les articles suivants).



    votre commentaire
  • Les limites de la connaissance 4) déterminisme et chaos.

    Première partie) 

    fractales



    Préambule

     

    La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


    Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gôdel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr  en mettant en cause toute notre manière de penser.

    L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?


    En exergue:

    "Cette époque, où l'on sera obligé de renoncer aux méthodes anciennes, est sans doute encore très éloignée; Mais le théoricien est obligé de la devancer, puisque son oeuvre doit précéder  et souvent d'un grand nombre d'années, celle du calculateur numérique."        Poincaré [1982]

    Les limites de la connaissance 4) déterminisme et chaos. Première partie.


    1) Introduction.

    RappelOn a vu dans l'article 3) que la possibilité de faire l'édifice des connaissances sur des bases sûres et isolées du reste de la construction est un leurre. La connaissance est un vaste réseau d'énoncés  étroitement imbriqués qui ne sont testables que de manière collective. On a montré que qu'il est impossible de prouver qu'une théorie décrive toute la réalité empirique de son champ d'application (qu'elle soit ce qu'on donne pour le vrai), mais on peut en trouver une qui ne soit jamais contredite par l'expérience. Selon la thèse de la sous-détermination des théories, on peut en trouver une autre incompatible avec elle et partageant les mêmes qualités. Or il est impossible que soient simultanément vraies deux théories contradictoires. Il est donc nécessaire d'abandonner aussi la notion intuitive de vérité. Mais alors, le concept de réalité semble aussi s'estomper (voir à ce sujet les différentes conceptions philosophiques dans les article à venir sur la physique quantique). En attendant, il faut considérer que les objets physique et les forces (censés constituer la réalité au sens habituel du terme) sont des entités intermédiaires postulées pour la commodité et la brièveté du discours. Comme le dit Quine, leur statut épistémologique est du même ordre que celui des dieux grecs ou des centaures. Il n'en diffère que par leur degré d'efficacité."

    Du temps d'Aristote (384-322 av. J.C), on pensait que le monde terrestre, sublunaire, n'était pas régi par des lois précises, contrairement au monde céleste, réputé parfait et immuable. Les irrégularités de notre monde terrestre, imprévisibles et incompréhensibles, étaient considérées comme la manifestation des caprices des divinités qui le gouvernaient, il n'y avait pas d'ordre.

    Progressivement les hommes apprirent que les régularités existent et qu'elles obéissent à des lois, les mêmes que celles qui régissent les cieux, lois qui nous sont accessibles. 

    La révolution de Galilée et Newton découvrirent ainsi la loi unique et universelle de la gravitation. Les lois s'expriment sous forme d'équations différentielles. Elles sont telles que si on connait à un instant  "l'état d'un système" (par exemple la position et la vitesse), celles-ci sont alors déterminées de manière unique pour tout instant ultérieur. c'est ce qui a conduit Laplace à déclarer: "nous devons envisager l'état présent de l'univers comme l'effet de son état antérieur et comme la cause de celui qui va suivre. Une intelligence qui pour un instant donné connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger des atomes: rien ne serait incertain pour elle, et l'avenir comme le passé seraient présent à ses yeux." C'est le paradigme du déterminisme classique. Même si la difficulté technique des calculs empêche d'arriver à un résultat explicite, nous sommes capables en principe, selon cette conception, de prédire l'état futur de tout système physique pourvu qu'on connaisse son état à un instant donné. On est passé de la vision chaotique du monde, selon laquelle ce qui se produit n'est dû qu'aux caprices imprévisibles de forces qui nous échappent, à une vision d'ordre parfait où tout est régi par des lois qui nous sont accessibles. Cette conception comporte deux caractéristiques qui furent attribuées aux systèmes physiques et qui reçurent une confiance accrue. La première est la conviction que des lois simples engendrent des comportements simples et donc que les comportements complexes sont dus à des lois ou à des systèmes complexes. La deuxième est que de petites modifications de l'état initial d'un système se traduisent par des modifications également petites de son évolution. Afin de justifier l'apparente liberté qui est la notre ou le fait qu'on ne sache pas prédire réellement ce qui va se passer, il il est facile de faire appel à l'impossibilité matérielle de faire des calculs (jugés trop complexes) ou de connaître l'état de l'univers (jugé trop vaste pour nos moyens humains). Nos savons maintenant la fausseté de cette vision du monde, révolutionnée par d'une part la vision déterministe du chaos, et d'autre part par la vision quantique (probabiliste) de l'univers.


    2) Représentation et compréhension du monde.

              

              a) Les systèmes et les états.

    Un système est un morceau de réalité, selon l'expression de David Ruelle, qu'on isole par la pensée. La description physique doit préciser les entités corps matériels, champs, etc...) et ses propriétés physiques qu'il faudra décrire et prédire, avec différents niveaux de précision (par exemple une boule en métal aimantée se déplaçant sur un billard, en considérant que la boule est assez petite pour être un point matériel et le champ magnétique trop faible pour influencer le mouvement). La représentation adoptée sera celle d'un point matériel M de masse m glissant sur une surface plane dont les seules propriétés considérées sont la position et la vitesse à chaque instant. Si on veut étudier ce que les joueurs de billard appellent les "effets", il faudra prendre le rayon R et la vitesse de rotation de la boule ainsi que son frottement sur le tapis et éventuellement inclure le champ magnétique dans le système s'il est notable.

     Ainsi, le même objet physique, dans la même situation, peut conduire à adopter des représentations constituées de systèmes différents avec des grandeurs physique qui peuvent être différentes (un point matériel glissant sur une surface plane, une boule de rayon R, une boule aimantée de rayon R soumise à des forces électromagnétiques...). Dans chaque cas, ce que l'on cherche à décrire, c'est l'évolution des propriété physiques retenues comme faisant partie du système (la position et la vitesse de la boule...). La donnée des valeurs de chacune des grandeurs physiques appartenant à un système constitue "l'état " du système à cet instant. Cette notion d'état est fondamentale. En physique classique, il semble aller de soi qu'à tout instant un système est dans un état bien défini, les grandeurs physiques qui lui sont attachées possèdent des valeurs déterminées précisément. Un boule possède une position et une vitesse parfaitement définies, même si nous ne les connaissons pas. Il y  a une correspondance parfaite entre la boule réelle et sa description par la donnée de son état. On peut ainsi associer à la boule une trajectoire qui est l'ensemble de ses positions successives au cours du temps. 

    Les physiciens ont l'habitude de travailler dans ce qu'on appelle "l'espace des phases", qui est un espace imaginaire, ici à 4 dimensions (les 2 coordonnées de dimension des positions de la boule et la quantité de mouvement = produit masse X vitesse). A chaque instant, la boule a une certaine position (Qx, Qy) et une quantité de mouvement (Px, Py), son état est don déterminé par ces 4 coordonnées, 2 de position et 2 de vitesse. On dit que le système a 2 degrés de liberté et on lui associe un point de coordonnées (Qx, Qy, Px, Py) dans l'espace des phases à 4 dimensions. D'une manière générale, l'état d'un système est déterminé par N coordonnées de position et N coordonnées de vitesse, soit N degrés de liberté.

    Afin d'effectuer des prédictions sur les grandeurs physiques, on utilise les lois qui en régissent l'évolution et la considération du système est indissociable de celle de celle de ces lois. Se donner la description d'un système correspond à modéliser la réalité. Un "modèle" est l'ensemble constitué par la spécification d'un système physique et la donnée des lois auxquelles il obéit. Il est utilisé pour décrire une portion du monde. 


              b) Modèle et explication.

    La construction d'un modèle est une tâche à la fois progressive et continuelle. Thomas Kuhn a suggéré qu'il peut être incommensurable aux modèles antérieurs lorsqu'il se produit  "une révolution" entraînant un changement de paradigme. En fait, dans tout modèle, un écart entre prévision et observation impose soit une nouvelle description du système, soit une modification des lois. Le but de la physique classique (celle de la fin du 19e siècle) est double: Il consiste d'une part à prédire le comportement futur du système qu'on étudie (prédire ses états futurs à partir de son instant à l'état initial)  et d'autre part, à comprendre pourquoi le système se comporte de cette manière, c'est à dire expliquerLe "pourquoi" était encore un des buts de la physique alors que maintenant on a coutume de dire qu'elle n'est concernée que par le "comment". Cette conception est conforme à la conception Popérienne: on fait une hypothèse de modèle, puis on le teste en le confrontant avec l'expérience. Lorsque le modèle échoue, on doit le modifier. Par contre, si un grand nombre de tests réussissent, il est de mieux en mieux corroboré et lorsque la confiance est suffisante, il peut être considéré comme explicatif. 


              c) Illustration: le mouvement des planètes.

    Une des premières explications en vigueur chez les grecs était: les planètes et les étoiles sont fixées sut la voûte céleste qui tourne autour de la terre en 24 heures, chaque étoile y accomplit un cercle parfait autour de la terre. Le système était constitué par le soleil, les planètes, la terre et la voûte céleste; la grandeur physique étudiée était la position de chacune des planètes. Cette vision était en accord avec le paradigme et les idées théologiques du moment attribuant aux corps célestes la nécessité de d'un mouvement parfait, donc circulaire. La loi générale attribuant à chaque corps céleste un mouvement circulaire permet de prédire, avec la précision des mesures de l'époque, la position d'un astre à partir de sa position à un moment donné. La représentation associée, est, elle, intuitive: si les planètes sont fixées sur une sphère rigide, leur mouvement est alors parfaitement compréhensible. 

    L'astronome grec Hipparque, après une analyse précise des données dont il disposait, fut le premier, semble-t-il, à constater au 2è siècle avant notre ère, que le mouvement des planètes n'a nullement la régularité circulaire parfaite qu'on lui supposait: elle inversent leur course a certains moments (Des civilisations antiques, notamment celle de l'Egypte ce celle du continent disparu dans "le grand Cataclysme" savaient tout cela selon Albert Slosman dans "la Grande hypothèse). Il proposa un correction de modèle tout en conservant toute son importance au mouvement circulaire. Le mouvement des astres y est décrit comme résultant de la combinaison de deux mouvements circulaires: un grand cercle centré sur la Terre, le déférent, et un petit cercle se déplaçant sur le déférent, l'épicycle. Ce modèle abouti à de nouvelles prévisions, fut perfectionné par Ptolémée, mais restait dans la continuité du précédent. 

    C'est Copernic qui, au 16è siècle, proposa une nouvelle loi, plus efficace pour représenter le mouvement des planètes, mais surtout elle représenta une véritable révolution conceptuelle et un "changement de paradigme" au sens de Kuhn. Le mouvement apparent des planètes résulte de la combinaisons des deux mouvements circulaires autour du soleil, celui des planètes et celui de la terre. Cependant Copernic restait encore prisonnier du mouvement circulaire uniforme. Puis, travaillant sur les données accumulées par Tycho BrahéKépler énonça ses 3 lois (1604-1618), en révolutionnant le paradigme de la perfection du mouvement circulaire par l'introduction du mouvement elliptique. Mais pourquoi la loi des aires et in temps mis pour parcourir la trajectoire égal à la puissance 3/2 du grand axe? Ces règles sont encore empiriques sans qu'on en sache la raison profonde. Avec Kepler l'astronomie a rempli son rôle d'accoucheuse de la science en révélant des lois empiriques dont la forme est mathématique. Le modèle associé peut être dit "instrumentaliste" (La science n'a pour but que de prédire le résultat des observations et n'est donc qu'un ensemble de recettes qu'il est dénué de sens de vouloir interpréter comme une description de la réalité en soi. La prédiction ne sert alors plus de support à l'explication) .

    C'est Newton qui, en 1867, répondra en introduisant un nouveau changement radical à la fois dans les lois régissant le mouvement des planètes et dans l'explication de ce mouvement. Ce faisant, il unifiera la physique céleste de Képler et la physique terrestre de Galilée. Sa théorie repose sur la célèbre loi de la gravitation. Elle permet à la fois de prédire précisément les trajectoires des planètes mais donne une explication aux lois empiriques de Kepler en les englobant dans une vision bien plus générale. Elle unifie les raisons qui font qu'un corps lâché d'une certaine hauteur tombe et que la terre tourne autour du soleil. L'idéal cherché est atteint par le donnée d'une loi qui permet de prédire le mouvement des astres et de l'expliquer par l'existence d'une force à distance, concept absent du modèle de Kepler. Newton ne croyait pas vraiment à cette force, mais la précision des prédictions est telle que qu'elle en renforcé la croyance pendant deux siècles et demie. Ce modèle n'est pas un simple perfectionnement continu du modèle grec, mais un changement révolutionnaire de paradigme qui a introduit la science moderne et une nouvelle vision du monde.

    Mais l'histoire ne s'arrête pas là. Uranus fut découverte par Herschel en 1871  puis Le Verrier et Adams proposèrent l'hypothèse d'une nouvelle planète qui était le cause des perturbations du mouvement constaté pour Uranus. Sa position fut calculée et Neptune fut ainsi découverte conformément aux prédictions. La transformation du modèle s'était effectuée non par un changement de loi, mais par un élargissement du système. Avec l'augmentation de la précision des mesure, la même histoire s'est répétée et Percival Lowell proposa l'existence d'un nouvelle planète observée par Clyde Tombaugh en 1930.

    Cependant, la constatation d'une anomalie dans la trajectoire de Mercure, ce qu'on appelle "la précession de son périphélie" a amené Le Verrier à postuler une nouvelle planète, Vulcain. Mais celle-ci ne fut jamais observée (des difficultés apparemment semblables ne se règlent pas toujours de la même façon),. Il revint à Einstein, en 1915, d'en donner la raison et de fournir avec sa théorie de la relativité générale, les lois et les explications qui sont en vigueur de nos jours. C'est un nouveau paradigme qui est né et qui a radicalement changé encore une fois notre vision du monde. Les concepts d'espace et de temps newtoniens ont été remplacés par un concept unique, celui d'espace-temps. La force de gravitation postulée par Newton est devenue  un effet de la courbure de l'espace-temps provoqué par la présence de masses. On peut dire que ce nouveau changement de paradigme est particulièrement révolutionnaire.


              d) évolution du concept de compréhension.

    A chaque époque, les explications, liées aux lois acceptées, ont été différentes et on mesure le fossé qui existe entre une représentation du monde qui postulait que que les astres sont fixés sur une voûte céleste rigide tournant autour de la terre et celle qui découle de la relativité générale, avec un espace-temps courbe à 4 dimensions. 

    La première représentation des Grecs est intuitive et constitue une explication en ce sens qu'elle identifie le mouvement des planètes à quelque chose de familier dont on a l'expérience (une boule). Le mouvement de la boule est certes inexpliqué, mais il reste en dehors du phénomène qu'on cherche à expliquer: le mouvement des planètes et d'elles seules. L'introduction des épicycles ne fait que compliquer l'image intuitive sans en changer la nature. Avec les lois de Kepler, on abandonne le domaine du familier représentable par des images. Les lois deviennent de nature purement mathématique (bien que la notion d'ellipse, elle, puisse être traduite en images).  Il n'est plus possible de prétendre comprendre, tout au plus peut-on constater que les planètes respectent ces lois purement empiriques, sans pour autant qu'on sache pourquoi. La théorie de Newton semble apporter une nouvelle compréhension en ce qu'elle donne une loi unique de laquelle découlent les lois de Kepler. Mais est-il possible de dire qu'on comprend le mouvement des planètes? Galilée rejetait avec horreur le concept d'attraction à distance ([...] je ne peux croire à des causes occultes et autres futilités de ce genre). Pour Descartes, seules les actions de contact sont de nature intelligible. Newton lui-même a avoué avoir les plus grandes difficultés à admettre cette force à distance, ce qui le conduisit à sa formule célèbre "je ne feins pas d'hypothèses", signifiant par là qu'il ne cherche pas d'explication à la force de gravitation. De nos jours, nous nous sommes habitués à à cette idée qui ne nous semble plus aussi étrange. 

    Le concept de compréhension donc est passé du stade où il signifiait "ramené au familier" au stade où il signifie "prédit par une loi simple". Avec l'intrusion de plus en plus grande des mathématiques et du formel, comprendre l'évolution de l'état d'un système signifie maintenant qu'on puisse le modéliser par un formalisme mathématique cohérent. On atteint un sommet avec la relativité générale. Peut-on dire qu'on comprend le mouvement des corps grâce à cette théorie? On donne souvent l'analogie d'une surface plane en caoutchouc qui se déformerait sous l'influence de boules massives. L'espace-temps de la relativité générale courbé par la présence des masses serait l'analogue de ce plan en caoutchouc  déformé par les poids qu'on y a déposés. On peut ainsi, sans connaître le formalisme mathématique, avoir l'impression de comprendre le mouvement en l'ayant ramené à quelque chose de familier. Mais c'est une illusion trompeuse, car ramener à un concept familier dont on a l'expérience ce qu'est un espace-temps courbe passe totalement sous silence un aspect irréductible de l'espace-temps qui est le mélange intime entre l'espace et le temps et que nulle analogie ne peut rendre de manière satisfaisante. Encore moins est-il possible de comprendre en ce sens ce qu'est la courbure du temps. Si compréhension il y a, c'est la simple capacité de prédire de manière cohérente et et unique les mouvements de l'ensemble des corps dans toutes les conditions possibles. Elle est donc réduite au maniement du formalisme et se confond avec la capacité d'utilisation de ce formalisme à des fins de prédictionToute compréhension fondée sur l'utilisation d'images intuitives ou de représentations mentales familières doit être abandonnée

    Doit-on adopter nécessairement une position instrumentaliste et abandonner le réalisme épistémique? Non car il est possible de penser que les concepts mathématiques ont leurs correspondants réels même s'il est impossible de s'en forger une image familière. C'est la position  du "réalisme mathématique" qui confère une existence réelle aux objets mathématiques eux-mêmes. Mais la thèse de l'intelligibilité  de la nature doit être affaiblie car la compréhension qui lui est associée n'est plus immédiate et familière que celle du réalisme métaphysique initial. Cela signe la mort du programme cartésien qui souhaitait se laisser guider par les images familières. 


    3) Le déterminisme mis à mal.

              a) Le déterminisme et les équations différentielles.

    Les équations qui décrivent les mouvements des corps soumis exclusivement à la gravitation newtonnienne sont des équations différentielles (équations qui relient une fonction à ses dérivées). Exemple: df(x)/dx - f(x) = 0 dont les solutions sont f(x) = Ce(puissance x, ou Cexp(x)). La loi de la gravitation stipule que qu'entre deux corps de masses respectives m et M situées à une distance d, s'exerce une force attractive d'intensité proportionnelle au produit des masses et inversement proportionnelle au carré de la distance: F = GmM/d(puissance 2) où G est une constante, la constante de gravitation. Newton a aussi "prouvé" que qu'un corps de masse m soumis à une force F subit une accélération y proportionnelle à la masse: y = F/m. 

    Ces deux lois suffisent pour décrire le système d'équations décrivant le mouvement d'un nombre arbitraire de corps soumis à leur seule interaction gravitationnelle. Par exemple, pour un corps au repos m attiré par un corps M l'équation qui décrit le mouvement est: d(carré)/dt(carré) = GM/x(carré) où x est la distance entre les deux corps sur l'axe qui les relie. La caractéristique de ce type d'équation est que pour chaque valeur de x et de dt/dx (la vitesse) à un instant initial to, l'équation fixe de manière unique  leurs valeurs à tout autre instant. Si le système solaire est décrit par un système d'équations différentielles, son passé et son futur sont entièrement inscrits dans son présent. Comme le dit Ekeland, on peut avoir l'impression que l'éternité est enfermée dans l'instant présent. C'est ce qui a conduit Laplace à écrire sa phrase célèbre. 

    L'évolution d'un système est dite "déterministe" si son état à un instant donné est détermine précisément et de manière unique son état à tout instant ultérieur. Les mouvements d'un ensemble de corps soumis à la loi de la gravitation sont décrits par un système d'équations différentielles et sont donc parfaitement déterministes. 


              b) Les difficultés de la mécanique céleste et la théorie des perturbations.

    Mais la résolution des équations différentielles (leur intégration) est souvent ardue, quand elle est possible, ce qui est loin d'être toujours le cas. Par exemple, le problème consistant à prédire l'évolution du système constitué par la Terre, Saturne et le soleil, est redoutablement complexe. Devant la difficulté (aux 18e et 19e siècles, les mathématiciens étaient incapables de prédire si Saturne ne s'échapperait pas dans l'espace...) qu'ils rencontraient à résoudre explicitement (décrire les fonctions solutions) les équations décrivant le système, ils furent amenés à développer de nouvelles méthodes de résolution, dites "perturbatives", en ce qu'elles procèdent par approximations successives par rapport à  des petites déviations d'une trajectoire primaire correspondant à un système simplifié qu'on sait calculer exactement. On commence par calculer dans le système à 2 corps (Terre-Soleil), l'orbite elliptique Képlérienne de la Terre. Si on désire tenir compte de l'attraction de Saturne, le système ne se résout plus. L'idée de base de la théorie des perturbations consiste à calculer le mouvement du système par une perturbation, supposée petite apportée au mouvement idéal du système Terre-Soleil. 

    [Dans les équations décrivant un système physique la théorie des perturbations s'utilise lorsqu'une action (perturbation) agissant sur le système peut être considérée comme petite. La méthode consiste à résoudre exactement le problème en l'absence de perturbation et à calculer la correction introduite par la perturbation. Le résultat obtenu peut à son tour servir d'approximation zéro pour le calcul d'une nouvelle correction.. Il en résulte l'expression de la solution cherchée sous la forme d'une série en puissance croissante de la perturbation. Lorsque la perturbation est réellement petite on peut se limiter aux premiers termes de la série. Historiquement la théorie des perturbations a été pour la première fois utilisée en mécanique céleste pour la résolution approchée du problème à trois corps. Ici l'approximation zéro est le problème de l'orbite képlérienne du problème à deux corps. Le troisième corps introduit une perturbation que l'on considère comme petite.. La théorie des perturbations est largement utilisée en mécanique quantique pour la résolution de l'équation de Schrödinger chaque fois que l'interaction peut être scindée en deux termes, un terme principal déterminant essentiellement l'état du système et un terme beaucoup plus petit provoquant une légère modification de cet état.. ]. Cette méthode, utilisée par Le Verrier pour découvrir Uranus a présenté des difficultés: elle a demandé un an à LeVerrier et le double à Adams, et les positions prédites étaient assez éloignées de la planète et les résultats suivants (Hill en 1897) étaient encore différents. Il revint à Poincaré d'en expliquer la raison.


             c) Poincaré et les systèmes intégrables.

       Le système d'équations qui décrit le mouvement est intégrable lorsque la trajectoire est donnée sous forme de fonctions explicite reliant les coordonnées au temps. C'est le cas avec les lois de Kepler qui permettent de donner pour chaque planète, l'équation de sa trajectoire elliptique en fonction du temps. Mais dans le cas de trois corps et plus, il n'a pas été trouvé de solution exacte et les méthodes perturbatives sont extrêmement lourdes et les calculs à mener sont très longs. La situation semble très frustrante, l'évolution du système est parfaitement déterministe, mais faute de disposer explicitement de la fonction, solution des équations, on est obligé de faire des calculs longs et complexes qui ne donnent que des valeurs approchées. Cette question fut posée par le mathématicien Karl Weierstrass comme sujet de concours que lança le roi Oscar II de Suède et de Norvège Henri Poincaré , en 1899, montra que le problème n'a pas de solution et qu'une telle recherche est vaine dans ses "méthodes nouvelles de la mécanique céleste". Aucune fonction obtenue par combinaison ou intégration de fonctions calculables (fractions rationnelles, fonctions trigonométriques, exponentielles...) ne peut être solution du problème. De plus, toute tentative pour pour exprimer des solutions sous forme de fonction exprimées par des séries échouera, car celles-ci seront divergentes. Or la méthode des perturbations est basée sur des développements en série de puissances de la perturbation, donc elle ne peur donner de solution exacte. Elle vont tendre vers l'infini ou osciller indéfiniment si on calcule leur somme avec un nombre de termes croissant. Mais Poincaré montre qu'elles sont asymptotiques, ce qui veut dire que les premiers termes donnent une approximation de la vraie valeur même si les termes suivants s'en écartent. On ne peut avoir la valeur qu'avec une incertitude, car ajouter des termes produit un effet inverse. Le problème est de savoir à quel terme s'arrêter pour obtenir la meilleure approximation. De plus, cela interdit de  les utiliser pour tirer des conclusions sur le long terme (et en particulier sur la stabilité du système solaire). 

    Selon Poincaré, les équations de Newton enferment une part de vérité qui nous échappera toujours, puisque certaines de leurs conséquences nous resteront inaccessibles. L'incapacité d'expliciter les solutions n'est pas due à notre maladresse temporaire, mais est une conséquence inévitable de la forme des équations.


              d) Les échappatoires aux résultats de Poincaré.

    Les méthodes de résolution étaient fondées à cette époque sur une méthode due à Liouville qui avait montré comment l'existence de quantités conservées (grandeurs physiques comme l'énergie attachées au système qui conservent la même valeur lors de son évolution. Voir le théorème  en mécanique hamiltonienne), en nombre suffisant, en fait égal au nombre de degrés de liberté, permet d'intégrer les équations. Poincaré avait montré que dans le problème des trois corps il n'y avait pas assez de valeurs conservées. Mais, de fait, un mathématicien suédois, Karl Fritiof sundmann trouva ultérieurement des séries convergentes qui donnaient les coordonnées des corps en fonction de la racine cubique du temps. Malheureusement, elles sont peu utilisables en pratique, car elles convergent beaucoup trop lentement. Il serait nécessaire de calculer un nombre astronomique de termes pour effectuer la moindre prévision utile. La méthode des perturbations, à travers des séries divergentes, produit des résultats approchés beaucoup rapidement.  

    Ensuite, Kolmogorov, Arnold et Moser (c'est le célèbre théorème de KAM), montrèrent que, contrairement à ce que pensait Poincaré, ces séries peuvent être convergentes pour certaines conditions initiales proches de celles engendrant des comportements périodiques. Mais ces résultats n'ont rien changé à la conclusion essentielle avait aboutit Poincaré: dans le cas général, il est impossible de prédire avec une erreur aussi faible qu'on le souhaite le mouvement à long terme à long terme de plus de deux corps soumis à leur attraction gravitationnelle. Cette impossibilité est due à une propriété essentielle des équations du mouvement que Poincaré mit en évidence; la sensibilité aux conditions initiales: "une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas voir et nous dirons que cet effet est dû au hasard". C'est en fait une propriété générale de la majorité des systèmes dynamiques non linéaires. 


              e) déterminisme et non-prédictibilité.     

    ensemble de Mandelbrot - fractale

    Le déterminisme est habituellement toujours associé à la prédictibilité. Il est légitime de s'attendre à ce qu'on puisse prédire les états futurs en appliquant à l'état initial la fonction déterministe qui transforme cet état en l'état à un instant t ultérieur quelconque. On est parfois obligé de procéder par approximations en raison de la trop grande complexité des résultats, mais ces approximations sont suffisamment précises pour que l'incertitude sur les prédictions soit maîtrisée et limitée. Négliger une quantité inférieurs à une certaine valeur est ce que Benoit Mandelbrot appelle un hasard bénin: une incertitude ou une approximation initiale bornée par une valeur epsilon se traduit par une incertitude du même ordre de grandeur sur le résultat et de petites modifications entraînent de petits effets. On peut prouver que les systèmes régis par des équations différentielles linéaires adoptent toujours ce comportement agréable. Jusqu'à une date récente, le sentiment dominant était que la majeure partie des systèmes dynamiques se comportait de cette manière. En fait, on avait toujours privilégié l'étude des systèmes intégrables. Mais avec la mécanique céleste, les travaux de Poincaré on montré que cet espoir était vain. On découvrit petit à petit que cette difficulté, loin d'être exceptionnelle, était le règle pour de très nombreux systèmes dynamiques non linéaires. Un petite erreur sur l'état initial s'amplifie de manière exponentielle, et l'évolution, bien que parfaitement déterministe est imprévisible! Poincaré était conscient de ces limites qui signifient l'échec de la méthode analytique et l'impuissance des mathématiques à calculer le comportement d'un système physique aussi simple que celui de trois corps en interaction gravitationnelle. 

    Devant son impuissance à calculer exactement les trajectoires, il s'intéressa à leur représentation dans l'espace des phases. Ceci nous amène au prochain article consacré à la théorie du chaos déterministe (Les limites de la connaissance 5) déterminisme et chaos. 2èpartie: le chaos déterministe).



    votre commentaire
  • Un de mes "topics" est la spiritualité.  Je donne ma lecture du livre de Annick de Souzenelle "le Baiser de Dieu" dans mes articles, sous le libellé "le Baiser de Dieu".


     


     Ici, je reproduis un texte de Annick de Souzenelle où elle s'exprime sur son livre.



     

    Le souffle de l'hébreu

     


    Au long de décennies passées à interroger le texte biblique et les mystères de sa langue, Annick de Souzenelle a construit une lecture originale et vivante de la tradition hébraïque.

     

     

     

    Tout se fonde, dans le travail d'Annick de Souzenelle, sur une lecture pas à pas du texte hébraïque de la Genèse, à travers ses non-dits, ses allusions que seul peut comprendre celui ou celle qui a répudié les promesses illusoires de la traduction : les deux tomes volumineux d'Alliance de feu, réédités récemment, sont le fruit de ce patient cheminement.

     

     

     

    Partant d'une intuition profonde de la spiritualité chrétienne originelle, Annick de Souzenelle dégage ce patrimoine universel de sa gangue moralisatrice pour en restituer la vitalité enthousiasmante.

    Mettant à portée de tout un chacun la richesse infinie du texte sacré, elle nous donne ainsi à contempler l'amour divin derrière ces mots qu'un « exil existentiel » nous fait parfois lire comme terribles.

     

    Cette démarche, ces « trouvailles » ont réconcilié un large public avec la fréquentation du patrimoine biblique qui, qu'on le veuille ou non, demeure l'un des piliers de la civilisation occidentale : elle en a également débattu passionnément avec Frédéric Lenoir dans L'Alliance oubliée

     

    De la matière de ses commentaires, elle extrait aujourd'hui la quintessence du « message» qu'elle décline selon des thématiques intemporelles : l'exil de Dieu, la liberté, la connaissance, le désir, le mal et la mort, et la renaissance.

     

    Présentation par Annick de Souzenelle.


     

     

     

    AUTANT DE SUJETS QUI SONT AU CŒUR DE TOUT SAVOIR SPIRITUEL AUTHENTIQUE.

     


     

    « Le baiser de Dieu : Ou l'Alliance retrouvée » sera considéré par certains comme un ouvrage de maturité, où les intuitions essentielles se conjoignent, sans esprit de système mais avec une belle harmonie.

    « La Torah est un baiser de Dieu ! », proclame-t-elle : par une attention amoureuse à la richesse du verbe hébraïque, elle en restitue tout le souffle.

     

    Le baiser de Dieu ou l'Alliance retrouvée

     

     



     




    - INTRODUCTION -

     

    La Torah est un baiser de Dieu !
    De Dieu « Moïse la reçut bouche à bouche », Verbe à verbe ; elle est le Verbe.

    Les « petites lettres d'en bas » qui écrivent le Livre sont lourdes des « grandes lettres d'en haut », leur source, mais aussi leur devenir si nous savons les recon­duire à l'origine.
    Car c'est à l'Homme qu'il revient d'œuvrer à ces noces que le baiser promettait.
    Chaque lettre danse le Verbe qu'elle est ; chaque mot chante le message qu'il délivre si nous nous offrons à lui.

    Cette appréhension de la Torah nous est bien étran­gère, à nous Occidentaux, qui scrutons les textes en manipulant des mots figés comme objets de discours ; entre nos mains, ils deviennent des outils de pensée alors qu'ils en sont les maîtres.
    En vérité, le mot vient vers nous, comme une icône ; il scrute nos coeurs et les appelle à l'ouverture sur un univers infini.
    De cet uni­vers les lettres sont les vibrations, car l'intériorité de l'Homme et la Torah sont sculptées du même ciseau, celui de la voix divine que « voyaient » les Hébreux au pied du Sinaï lorsque Dieu parlait à Moïse.

    La Torah n'est écrite que de consonnes, le Verbe ; leur musique est une voyellisation non écrite, un souf­fle, l'Esprit.
    L'Esprit est une onde qui voyage à l'in­fini, qu'on ne peut saisir, mais qui saisit les lettres dans une ronde ; et la ronde nous encercle à son tour et fait valser toutes nos certitudes ; elle fait se retour­ner, s'éloigner puis se rassembler les mots qui, sou­dain, prennent une couleur, un sens, mais un sens toujours ouvert sur d'autres horizons.

    L'hébreu, plus que toute langue, est propre à chan­ter les récits mythiques qui rendent compte de l'inté­riorité de l'Homme.
    Cette intériorité resterait muette si le mythe ne l'exprimait pas.

    « Muet » et « mythe » sont liés par la racine de base mu qui rend compte de l'indicible, du mystère.
    Der­rière les mots du mythe, en quelque sorte, l'essentiel se tait mais s'inscrit dans un présent rigoureux.
    Le mythe se sert des matériaux de langage de l'Homme extérieur pour parler de l'Homme intérieur.
    Mais si nos yeux d'Homme en exil de lui-même figent ces matériaux dans leur seule dimension horizontale, il est bien cer­tain qu'ils ne rendront aucunement compte de leurs messages.

    C'est ainsi que le mot Bereshit qui ouvre la Torah et dont la Tradition juive assure qu'il la contient tout entière, ce mot est massacré et la Torah l'est aussi s'il est traduit par « au commencement » ; ce « commen­cement », je l'ai souvent dit mais tiens à le répéter, introduit les temps historiques, nos temps d'exil, il y a des milliards d'années, et il nous concerne alors bien peu !
    Si nous le traduisons par « dans le Principe », ce Principe est présent en nous ; il est le Noyau fonda­teur de l'être de l'Adam — l'humanité ; nous sommes alors saisis par ce Principe dans notre être le plus pro­fond, dans notre « chair », Bassar, que « Dieu scelle dans les profondeurs de l'autre côté de l'Adam », son côté encore inaccompli, notre côté encore inconnu.

    Bassar, que l'on peut aussi traduire par « dans le prince », contracte en un ballet nouveau le mot Bereshit, «dans le Principe» ; prononcé Bosser, il est alors le verbe « informer » : ce Noyau fondateur est Semence de notre être.
    Semence qui contient la totale information de notre devenir.
    Comme le gland conduit au chêne, ce Bereshit nous conduit à la totalité de nous-mêmes, dont nous n'avons encore aucune idée !
    Mais, si nous savons l'entendre, notre véritable His­toire commence : celle qui court en amont de l'exil et qui reste d'une brûlante actualité ; bien que brisée par l'Homme coupé de sa Source, elle continue en effet d'être tissée par les mains divines en sous-jacence de notre malheureuse histoire ; car, du même fil écarlate qui tissait l'histoire d'Israël, l'oeuvre divino-humaine se poursuit.

    Cela veut dire que cette « malheureuse histoire » de l'Homme extérieur a aussi sa dimension mythique, et qu'il est de première importance d'apprendre enfin à lire les événements de notre vie personnelle ou collec­tive sur un autre registre que celui de l'existentiel ; l'his­toire devient alors signifiante de l'évolution de l'Homme intérieur à partir de sa Semence : histoire dra­matique lorsque cette Semence est stérilisée et sa dyna­mique stoppée, figée, oubliée au cœur de l'Homme, mais histoire qui peut être somptueuse une fois rac­cordée à sa Source d'où s'accomplira le devenir de l'Homme.
    Ces deux thèmes font l'objet de ce livre.

    Je suis frappée, par exemple, par le problème capital que posent aujourd'hui pour les pays d'Occident l'im­migration des peuples étrangers et leur intégration à ces « terres d'accueil ».
    Nous verrons, au cours de cet ouvrage, que cette question objective l'incapacité que nous avons à intégrer en chacun de nous l'«étranger».

    Sur un plan biologique, cet étranger est le « non-soi » (microbe, virus, champignon, etc.).
    Nous en avons une peur si obsessionnelle que nous nous en protégeons en multipliant les mesures d'asepsie et de stérilisation qui à la limite sont la mort.
    Quant à notre médecine, elle ne sait « traiter » cet étranger organique qu'en le tuant par voie extérieure et en détruisant bien souvent avec lui le milieu environnant, au lieu de renforcer le système immunitaire qui, lui, se chargerait d'intégrer au « soi » le « non-soi » ; le « soi » est en effet capable de se reconnaî­tre porteur du « non-soi» et donc de pouvoir l'assimiler.

    Sur un plan sociopolitique, cet étranger est l'homme d'une autre culture, voire d'un autre peuple, et il inspire à certains une peur tout aussi intense.
    Nous utilisons à son propos un double langage : celui des discours de surface qui se veulent accueillants au nom de la démocratie ; celui des lois, parfois inhumai­nes, souvent contradictoires, prouvant notre désarroi et notre ignorance de ce que l'humanité est une, et que l'autre est en chacun de nous.
    Nous verrons ainsi que le mot hébreu R'a, traduit habituellement par le « mal », alors qu'il est l'« inaccompli », l'inconscient, s'il est prononcé Ré'a est le « prochain ».
    «Aime ton prochain parce qu'il est toi-même, comme étant toi-même », pourrions-nous entendre.
    Ne devrions-nous pas alors renforcer notre « pouvoir immunitaire » en apprenant à aimer...

    Ces deux états de fait, qui relèvent à mon avis d'une même cause, n'introduisent en rien dans mon esprit une confusion entre leurs parties homologues, à savoir le non-soi en microbiologie et l'étranger dans le regis­tre politique ; mais tous deux ont pour similitude leurs rapports respectifs l'un au corps biologique, l'autre au corps social.

    D'autre part, si nous nous penchons sur un mythe, le mythe biblique de Noé par exemple, il nous donne à voir que l'humanité, le collectif en situation d'exil, se débat et se noie dans ce que symbolise le Déluge — inconscience, violences, destructions, tragédies..., qui stérilisent la Semence et mènent l'Homme à la mort.
    Au cœur de ce drame, le patriarche Noé, homme juste, entend la voix divine et s'extrait du Déluge, que nous verrons être pour lui « matrice d'eau » et non plus tom­beau, afin de construire son « arche », la Tébah en hébreu ; proche du nom de Thèbes, ville sainte chez les Grecs, la Tébah est le nouvel espace intérieur du patriarche, qui sera pour lui « matrice de feu » ; en elle il s'accomplira et deviendra le fruit promis de sa Semence, le fruit de l'Arbre de la Connaissance.
    Ce fruit, symbolisé en ce mythe par celui de la vigne, fait de Noé un homme ivre et nu : ivresse, jubilation de la connaissance acquise par le travail accompli dans l'arche ; et nudité, dépouillement des savoirs que le monde lui a fait revêtir.
    Il s'avance alors vers sa « ten­te », 'Ohel en hébreu, où il rencontrera son 'Elohim — sans doute symbolise-t-elle une ultime matrice, celle du « crâne ».
    La dynamique de croissance de la Semence implique la présence de ces trois matrices en notre corps ; le chapitre final de ce livre le dira.

    Dans la tente Noé, devenu Gloire d'Elohim, res­plendit et diffuse une lumière insoutenable aux yeux de ceux qui n'ont pas atteint à cette qualité d'être.
    Deux de ses fils, Shem et Yaphet, le suivent ; ils mar­chent à reculons en revoilant leur père.
    Mais Ham, le troisième fils, regarde à l'intérieur de la tente où Noé a pénétré ; il voit et, certain de ce qu'il a vu, il va le raconter à ses frères à l'extérieur.

    Il y aura toujours dans le monde ces deux démar­ches de connaissance.
    Celle de Ham, le voyeur, dont le nom signifie la « chaleur », la « puissance », et qui forge ses concepts, les érige en certitudes qui devien­nent idoles et objets de puissance ; son interprétation du mystère est pour lui vérité et celle-ci, ramenée au niveau des valeurs de l'exil, construit un dogmatisme stérilisant.
    Celle de Shem, le « Nom », et de Yaphet, l'« étendue de beauté », qui, eux, savent qu'ils ne savent pas, est apophatique, car c'est par une voie négative — à reculons — qu'ils atteignent à une vérité dont ils savent qu'elle en cache une autre, plus proche de la vérité ultime, cachée, incluse dans le mystère de la tente ; aussi ils cherchent, interrogent, contemplent dans une quête amoureuse portée en eux-mêmes : ils se verticalisent.

    Juifs et chrétiens sont un dans le Saint Nom, le Shem.
    En lui leurs mystiques embrassent les différents niveaux du Réel dont je parlerai et qui, déployés à la verticale de l'être, sont « beauté », Yaphet— une beauté cachant l'autre, jusqu'à l'ultime splendeur qui les contient toutes.

    Nos frères juifs sont gardiens de la Torah, le Verbe ; s'ils avaient reconnu le Christ, ils se seraient hellénisés et auraient perdu l'hébreu, la langue du Verbe.

    Peut-être seraient-ils devenus des Ham.
    Les chré­tiens ont reconnu le Verbe dans la Personne du Christ ; ils ont perdu l'hébreu.
    Beaucoup sont deve­nus des Ham.

    La Torah, en ce qui est compris d'elle, est objet d'exclusive propriété et devenue idole pour nombre de juifs.
    Pour nombre de chrétiens, c'est la Personne historique du Christ qu'ils vivent ainsi, n'entendant pas ce à quoi elle les renvoie en eux-mêmes.

    «Annick nous a volé la Torah», fut-il dit un jour à l'un de mes amis par un écrivain juif.
    Et, plus tard, par une auditrice israélienne : «Annick, tu nous as volé notre langue !»
    La « voleuse » ne fut pas moins surprise de lire tout récemment, dans un ouvrage écrit par un prêtre chrétien de haute fonction : « On nous demande aujourd'hui d'établir un dialogue (avec les autres traditions), mais comment agir sans faire de prosélytisme puisque nous avons la vérité ? »

    Confiant à un journaliste chrétien cette anecdote et la profonde tristesse que j'en avais, cet homme, étonné de ma réaction et voulant sans doute justifier le prêtre, me dit : 
    « Mais, Annick, les chrétiens ont le Christ.
    - Pardon, lui dis-je, ils ont le Christ ? »

    Perplexe, le journaliste referma son cahier de notes et me quitta.

    Le Christ et la Torah, réduits aux normes de l'avoir, sont livrés aux mains du séparateur, le dia­bolos, qui nous fait jouer les Ham en proie à des rap­ports de force si destructeurs.

    Vécus au niveau de l'être par chacun des mystiques de ces deux traditions, le Christ et la Torah amène­ront juifs et chrétiens à plonger au cœur d'eux-mêmes où le Saint Nom les attend dans un espace infini où le temps n'est plus.
    Un en « Je Suis », YHWH, ils savent, pour les premiers que la Torah se danse et se chante sur soixante-dix octaves dont chacune s'efface devant la plus grande profondeur de l'autre ; pour les seconds, que la Personne historique du Christ se retire pour que « l'Esprit-Saint vienne qui leur enseignera toute chose » et les introduira peu a peu dans les soixante-dix « vergers » du Pardès ; soixante-dix contractés en quatre niveaux selon les quatre lettres du Pardès, dont le dernier, le Sod, est le « secret ».
    Dans le secret qui, au départ, est la Semence divine, un seul arbre grandit, dont le fruit est le Shem, YHWH.

    Le Rabbi Dov Baer, un grand saint du XVIIIe siècle, hassid bien connu sous le nom du Maggid de Meze-ritz, dit ceci :
    « Noé et les patriarches ont eu la révélation de la Torah dans son essence, dans sa nudité, sans la robe de la loi dans laquelle elle se présente et s'adapte au monde et qui, pour cette raison, la rend changeante et relative.
    Au temps de Noé et des patriarches, l'essence de la Torah était encore toute nue ; elle n'était point encore habillée dans les vêtements du monde ; elle ne portait pas encore une robe de juge et n'était pas munie du bâton du gendarme.

    Les lois de Moïse forment la gaine protectrice de la Torah dont la lumière originelle est trop forte pour le monde ; elle risque de l'aveugler et de le brûler.

    Mais la Tradition nous apprend qu'aux temps messianiques, le Saint-Béni-Soit-Il sortira le Soleil de sa gaine, c'est-à-dire que la lumière de la Torah bril­lera de tout son éclat, qu'on pourra la percevoir dans son essence (...) sans revêtements pour le monde et la société, c'est-à-dire sans les lois de Moïse qui sont nécessaires actuellement car sans elles le monde ne pourrait supporter l'éclat naturel de la Torah, qui est trop fort pour la plupart des esprits.»

    Mais les temps messianiques approchent.
    Nous avons à les préparer, nous, juifs et chrétiens, ensemble, sans exclure bien sûr tous les amoureux de l'Innom­mable sur terre.
    Aujourd'hui, les valeurs du monde montées sur le bateau des certitudes font naufrage, tandis que surgissent de nos profondeurs inaliénables celles de la Révélation.

    Elles ont une saveur de sel, du sel dont le feu ne se dissout plus dans l'eau mais l'embrase ; il embrase l'eau de l'inconscience du monde et brûle ses vête­ments protecteurs.
    Car le Verbe inclus dans la Torah est en train d'accomplir de son feu la dernière part de l'arc-en-ciel qui relie le ciel à la terre.
    L'arc-en-ciel établi par Dieu avec Noé est signe de l'Alliance oubliée des hommes mais que Dieu, se sou­venant d'elle, confirme et rend tangible au cœur de leur exil.
    Cet arc, comme le fil écarlate, trace l'his­toire des hommes dont nous semblons vivre aujour­d'hui la fin d'un temps ; nous vivons une dernière part du signe de l'Alliance avant que le signe s'efface devant l'Alliance recouvrée.

    A cette étape actuelle du tracé, nos frères musul­mans ont eux aussi à intervenir, car de leur père fon­dateur, Ismaël, Dieu dit : « II sera tireur d'arc », Rovéh Qeshet, qualité dont use la ruse divine pour dire d'Ismaël qu'il sera Rov HaQeshet, « maître de l'arc (-en-ciel) », artisan majeur de son redressement en l'Alliance fondatrice.
    Artisans de l'Alliance, nos frères musulmans nous obligent à nous réaffirmer, nous, juifs et chrétiens, face au vide de la modernité ; vide qui, s'il était vraiment vide, appellerait la grâce, mais il grouille d'idoles aliénantes !

    En ce vide mutilé pénètre aujourd'hui le Saint Nom qui, de l'Epée à deux tranchants, de l'Epée flam­boyante qu'il est, tue les idoles et invite l'Homme à recouvrer ses normes premières.
    Elle le conduit à se souvenir qu'il est le signifiant de Dieu par le Verbe, et que le mot est signifiant du Verbe.

    « II est vie, esprit, germe, ouragan, vertu, feu. 
    Car le mot c'est le Verbe, et le Verbe, c'est Dieu. »

    Victor Hugo, Les Contemplations.

    © Annick de Souzenelle

     

     

     

    Le baiser de Dieu ou l'Alliance retrouvée

     

     

     

     

     


    votre commentaire
  • Les limites de la connaissance 3) le programme de Hilbert et les indécidables. 

    Partie 2) les indécidables.

     


     

     

    Les limites de la connaissance 3) le programme de Hilbert et les indécidables

    . Partie 2) les indécidables.


    Préambule.

     

    La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


    Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gôdel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr  en mettant en cause toute notre manière de penser.

    L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?

     

     

    La certitude en mathématiques. 

     

    Les conclusions de l'article sur l'empirisme logique aboutissent à une vision du monde qui refuse au savoir toute certitude assurée et qui remet en cause le statut même de la réalité extérieure; la science n'est que le discours le plus simple et le plus commode en adéquation avec nos expériences; Les objets physiques ne sont que des entités intermédiaires que nous postulons pour que nos lois soient les plus simples possibles, mais rien ne nous garantit que leur existence est plus réelle que celle des dieux de l'antiquité. 

     

    Le programme finitiste de Hilbert.

    L'idée de Hilbert est d'enfermer la totalité des mathématiques dans un système formel finitiste

     

    Ces espoirs ont été ruinés par les théorèmes de Gödel les "indécidables".


    Les indécidables

              Philosophie du théorème de Godel.

    Il existe clairement une différence entre vérité et prouvabilité contrairement à ce que pensait Hilbert. Il est donc impossible de construire un système formel complet qui constituerait le cadre axiomatisant l'ensemble des mathématiques et permettant de donner une preuve de toutes ses vérités. La vérité ne se laisse pas réduire aux preuves formelles et la sémantique n'est pas réductible à la syntaxe.

     


    1) Le théorème de Gödel.

     

              a) présentation.

    Sa première partie stipule que "dans tout système formel assez puissant pour formaliser l'arithmétique, si le système est consistant, il existe une proposition indécidable, c'est à dire vraie mais qu'on ne peut pas prouver", contrairement à ce que souhaitait établir Hilbert. Il en existera en fait une infinité. La démonstration de Gödel consiste à exhiber une proposition universelle (cad du type Vn P(n)) concernant les nombres entiers dont on veut s'assurer qu'elle est vraie (cela découle de sa construction) et dont il est possible de montrer qu'elle n'est pas démontrable. La proposition en question st complexe et Gödel ne la donne pas sous une forme explicite, mais ce serait possible, bien que fastidieux. Contrairement à ce qu'on pourrait croire naïvement, il ne suffit pas d'ajouter cette formule aux axiomes pour que toute formule vraie devienne démontrable, car le théorème nous dit que, dans ce nouveau système, il existera aussi une formule indécidable et ainsi de suite à l'infini. On a vu qu'il s'agit d'incomplétude syntaxique, l'arithmétique étant sémantiquement complète en tant que théorie du premier ordre.

    La deuxième partie du théorème stipule que "si le système est consistant, il est impossible de démontrer la consistance du système à l'intérieur du système lui-même". La signification de cette partie, plus difficile à saisir sera explicitée au cours de l'article. Cela ruine le deuxième espoir de Hilbert (prouver par des moyens formels finitistes que le système formel dans lequel on se place est consistant).


              b) L'arithmétisation de la logique.

    Cela consiste à pouvoir représenter par des formules arithmétiques des assertions métamathématiques qui portent sur des objets  qui sont les formules ou les calculs arithmétiques ("2+3=5" ou "Vn, n puiss2 = 1+2+...+2n-1").

    S'intéresser non pas directement aux formules mais à leurs propriétés (comme celle d'être une sous-formule ou d'être prouvable), c'est se placer à un méta-niveau. Ainsi, la phrase "la formule "2 + 3 = 5" est prouvable, mais la formule "3 x4 = 10" ne l'est pas" est une assertion non de l'arithmétique, mais de la méta-arithmétique. L'astuce de Gödel consiste à associer à une formule de l'arithmétique, de manière unique, à toute assertion du méta-niveau (méta-assertion). La méta-assertion "la formule "4x3 = 10 n'est par prouvable" est équivalente à "l'arithmétique est consistante", puisqu'on a vu que si un système est inconsistant, toute formule est prouvable. Si la formule qui représente une méta-assertion est vraie, alors la méta-assertion l'est aussi. C'est cette association d'une formule à toute méta-assertion, de sorte que la méta-assertion soit vraie si et seulement si la formule  est vraie, qui effectue la représentation du méta-niveau dans le niveau.

    L'idée de Gödel consiste d'abord à exhiber une formule arithmétique universelle G  (cad de la forme Vn P(n) telle qu'elle représente l'assertion de méta-niveau "G n'est pas prouvable". Si le système est consistant, alors, si la formule G est démontrable, G est vraie et la méta-assertion qu'elle représente est vraie. Or, cette méta-assertion dit que la formule G n'est pas démontrable. Il y a donc une contradiction. Ainsi G n'est pas démontrable. Donc la méta-assertion est vraie et G est vraie sans démontrable. C'est la première partie du théorème qui qui montre l'existence de propositions indécidables. 

    La deuxième partie du théorème: la consistance d'un système formel concernant l'arithmétique n'est pas prouvable dans le système lui-même. Soit "Cons" la formule de l'arithmétique représentant la méta-assertion "l'arithmétique est consistante". La formule   "Cons--> G" est donc vraie et il est possible de montrer qu'elle est démontrable. Supposons donc qu'on puisse démontrer "Cons", dans ce cas, par modus ponens, on a :                         Cons--> G;  Cons; serait une preuve de G, ce qui n'est pas possible. 


    Ceci n'est pas une démonstration rigoureuse. Gödel commence alors par montrer qu'il est possible d'assigner un nombre unique à chaque symbole, à chaque formule et à chaque preuve de l'arithmétique. Ce nombre est appelé son "nombre de Gödel". Tout nombre entier n'est pas forcément nombre de Gödel d'un objet, mais le procédé est tel qu'il existe une correspondance biunivoque entre les objets (symbole, formule, preuve), et leur nombre de Gödel. Toute assertion portant sur les objets du système peut être traduite en une formule portant sur les nombres de Gödel de ces objets. Par exemple, le fait pour un nombre de Gödel a d'être celui d'une formule (pas d'un symbole ou d'une preuve), s'exprime comme une propriété du nombre a. Il est donc exprimable par une formule portant sur a, notée F(a). Le fait pour une formule F d'être une sous-formule d'une formule G (assertion du méta-niveau), s'exprime par le fait que le nombre de Gödel de F (le ng de F) est un facteur de celui de G, ce qui est une formule arithmétique. De même, le fait pour une preuve de ng a d'être la démonstration de la formule de ng b s'exprime par une formule arithmétique entre a et b (très complexe). On note Dem (a;b) la formule arithmétique qui représente le fait que ng a est une démonstration de de la formule de ng b. Si elle ne la démontre pas, on l'exprime par --, Dem (a,b).

    La consistance de l'arithmétique (équivalente au fait qu'il existe une formule non démontrable), peut donc s'exprimer par la formule: Eb F(b) ^Va --, Dem(a,b). Ainsi, par ce procédé, toute assertion de méta-niveau sera représentée de manière unique par une formule arithmétique telle que la méta-assertion sera vraie si et seulement si la formule associée est vraie. 


              c) Principales étapes de la démonstration de Gödel.

    Première partie du théorème.

    Il existe une infinité de manières d'assigner un nombre de Gödel aux objets d'un système. Supposons que le nombre de Gödel de la variable y soit 13. On considère alors l'expression sub (m,13,m), à laquelle on donne la signification: c'est le nombre de Gödel obtenu à partir de de la formule du ndg m quand on substitue à la variable qui porte de ndg 13 (cad y) le symbole représentant le nombre m (Le nombre 2 s'écrit "ss0" si le vocabulaire est limité à "0" associé au nombre 0 et "s" associé à la fonction successeur). On part de la formule du ndg m (100). On remplace dans cette formule toutes les occurrences de la variable y (13) par par le symbole représentant le nombre m (100). La formule obtenue porte un ndg qui est sub (100,13,100). 

    Il en résulte que sub (y,13,y) signifie:  le ndg obtenu à partir de la formule de ndg y quand on substitue à la variable qui porte le ndg 13 (cad y) le symbole représentant le nombre y. 


     Considérons maintenant la formule A: Vx --, Dem (x,sub (y,13,y)) qui signifie que la formule dont le ndg est sub (y,13,y) n'est pas démontrable. Cette formule A possède un ndg. Supposons que ce soit n. Substituons dans la formule A le symbole du nombre n à la variable de ndg 13(cad y). On obtient: Vx Dem(x, sub (n,13,n)) qu'on appellera formule G. Quel est le ndg (nombre de Gödel) de cette formule? C'est sub (n,13,n) puisque sub (n,13,n) est le ndg de de la formule obtenue à partir de la formule de ndg n, cad de la formule A en y substituant le symbole représentant le nombre n à la variable y. Or que dit la formule G? Elle dit que la formule de ndg sub (n,13,n), c'est à dire elle-même n'est pas démontrable. C'est la proposition universelle G évoquée au chapitre précédent qui représente la méta-assertion G n'est pas prouvable. On a donc construit une formule mathématique telle que le sens de la méta-assertion associée est "la formule qui me représente n'est pas prouvable). On pourra ainsi avoir l'impression que le théorème est démontré, mais le raisonnement présenté est de nature métamathématique. Il n'est donc pas suffisant pour la rigueur qui a été fixée de en exigeant que toute démonstration puisse se faire sous la forme d'une dérivation formelle à l'intérieur du système. 

    Nous devons donc maintenant démontrer formellement (et non pas sémantiquement) que G n'est pas prouvable si le système est consistant. La preuve est la suivante. Si G l'était, il existerait une suite de formules qui est une démonstration de G. soit k le ndg de cette démonstration. La formule Dem (k, sub (n,13,n)) est donc vraie et il est possible de montrer que dans ce cas, elle est démontrable. On peut en dériver Ex Dem (x, sub (n,13,n)) qui est équivalente à  --,Vx --, Dem (x, sub (n,13,n)) c'est à dire à --, G. On a donc une démonstration de G et une démonstration de --, G, ce qui est impossible si le système est consistant. Donc si le système est consistant, G n'est pas prouvable, et réciproquement si --, G est démontrable, alors G l'est aussi. Donc, ni G ni --, G ne sont démontrables. Mais G est vraie puisqu'elle exprime justement qu'elle n'est pas démontrable, c'est ce qu'on appelle un indécidable.

    Deuxième partie du théorème:

    On vient de montrer que la méta-assertion "si le système est consistant alors il existe une formule vraie non démontrable" est vraie. Elle peut être à son tour représentée par la formule: Eb F(b) ^ Va --, Dem (a,b) --> Vx --, Dem(x, sub(n,13,n)), soit: "Cons--> G". On peut montrer que cette formule est démontrable. Supposons alors que "Cons" soit démontrable, il s'ensuivrait par modus ponens (comme vu dans le paragraphe précédent) que G le serait aussi, ce qui n'est pas possible en raison de la première partie du théorème. 


              d) Philosophie du théorème de Godel.

    Il existe clairement une différence entre vérité et prouvabilité contrairement à ce que pensait Hilbert. Il est donc impossible de construire un système formel complet qui constituerait le cadre axiomatisant l'ensemble des mathématiques et permettant de donner une preuve de toutes ses vérités. La vérité ne se laisse pas réduire aux preuves formelles et la sémantique n'est pas réductible à la syntaxe. De plus, il n'est pas possible non plus de montrer la consistance d'un système formel contenant l'arithmétique par des procédés finitistes qui se laissent représenter à l'intérieur du système. Cela ne signifie pas cependant que qu'il soit impossible de de démontrer la consistance d'un tel système formel, des preuves faisant appel à des procédés métamathématiques extérieurs au système peuvent être construites. On peut prouver rigoureusement que la formule non démontrable est vraie par des moyens sémantiques extérieurs au système. Mais le but de Hilbert était d'obtenir un preuve syntaxique afin d'éliminer tout recours à l'intuition. Il en résulte que les moyens utilisés par ces moyens extérieurs au système sont à leur tout susceptibles d'être mis en doute...

    Nota: On sait maintenant qu'il est possible d'obtenir une preuve syntaxique de consistance de l'arithmétique (la 1ère date de 1936 par Gentzen). Elle fait appel au principe d'induction transfinie jusqu'à l'ordinal epsilon0, le plus petit ordinal venant après la suite des ordinaux oméga...Mais elle n'est pas finitiste au sens strict et ne se laisse pas représenter dans l'arithmétique.


    2) Les indécidables.


               a) Présentation.

    On a longtemps considéré que le résultat de Gödel n'a aucune conséquence sur les mathématiques que présentent réellement les mathématiciens. Dieudonné écrit en 1982: "la proposition indécidable établie par Gödel paraît très artificielle, sans lien avec aune partie de la théorie des nombres actuelle; sa principale utilité était d'établir l'impossibilité d'une preuve de la non-contradiction de l'arithmétique. Parmi les nombreuses questions classiques non résolues de la théorie des nombres, on n'a pas encore, à ma connaissance, étable que l'une d'elle est indécidable." La formule n'est pas explicite et beaucoup de mathématiciens pensaient qu'en dehors ce type de formules expressément construites à cet effet, les énoncés normaux étaient prouvables ou réfutables. Mais en 1977,Jeff Paris et Harrington ont publié un énoncé qu'il est impossible de démontrer dans l'arithmétique de Peano du premier ordre et, comme le dit Girard, "l'incomplétude est descendue sur terre."

    Un indécidable dans un système est un énoncé qui ne peut être ni prouvé ni réfuté dans ce système. Il n'est pas forcément remarquable, comme par exemple le cinquième postulat d'Euclide. Ici, l'indécidabilité provient de la pauvreté du système initial. Dans d'autres cas, un système semble intuitivement suffisant pour formaliser un domaine où, malgré tout, certains énoncés restent indécidables (ex en théorie des ensembles). On est alors conduit à admettre que dans ce domaine, l'intuition reste insuffisante pour fixer la valeur de vérité des énoncés. Le cas le plus étonnant est celui des énoncés vrais dans le domaine mais non démontrables, comme les indécidables de Gödel pour l'arithmétique. 


              b) Les indécidables de la théorie des ensembles.

    L'hypothèse du continu (HC) est un indécidable: N1= 2 puissance N0, ce qui signifie "il n'existe aucun infini compris strictement entre l'infini des nombres entiers et celui des nombres réels." Cantor ne réussit jamais à démontrer cet indécidable dans la théorie des ensembles ZF (de Zermelo-Franklel). Gödel a montré en 1938 que la théorie obtenue en ajoutant HC à ZF est consistante si ZF l'est, puis Cohen a montré en 1966 qu'il en est de même si on ajoute la négation de HC à ZF. Il en est de même pour l'axiome de choix AC qui stipule qu'étant donné une famille d'ensembles, on peut former un nouvel ensemble qui contient exactement un élément de chaque ensemble de la famille. Ce qui signifie que les axiomes de ZF qui à priori semblent suffisants pour caractériser notre concept intuitif d'ensemble ne le sont pas vraiment.

    Il pourrait sembler simple d'y remédier en en s'interrogeant s'ils sont vrais ou faux tels que nous les concevons puis en rajoutant l'énoncé ou sa négation comme axiome supplémentaire. Pour HC cependant il est très difficile d'avoir une intuition directe convaincante de sa vérité ou de sa fausseté. Aucun mathématicien n'a pu exhiber une bonne raison de penser que HC doive être vraie (ou fausse) sur les ensembles qui sont ceux "que nous avons en tête".Cela paraît plus simple pour l'axiome de choix. Il semblerait en effet qu'il énonce une extension aux ensembles infinis d'une propriété parfaitement exacte pour les ensembles finis. Donc pourquoi ne pas l'admettre comme axiome supplémentaire sans se poser de questions? Mais, et Zermelo l'a fait en 1904, on peut montrer qu'il est équivalent à l'énoncé suivant: "Tour ensemble peut être bien ordonné" (quand on peut le munir d'une relation d'ordre tel que tout sous-ensemble non vide possède un plus petit élément. Et sous cette forme il implique que l'ensemble R (les réels) peut être bien ordonné alors qu'intuitivement on pense le contraire. Actuellement, l'hypothèse du continu AC est acceptée par la majorité des mathématiciens. 

    Tout ceci montre la difficulté qu'il y a à enfermer dans un système d'axiomes toutes les caractéristiques d'une conception intuitive. C'est un aspect majeur du débat entre mathématiciens réalistes et ceux qui ne la sont pas. Pour les réalistes, HC est vraie ou fausse en ce qui concerne les vrais ensembles et nous finirons par découvrir ce qu'il en est. Alors, on ajoutera HC (ou sa négation) à ZF aux axiomes de ZF, ce qui permettra de d'obtenir un système décrivant mieux les "vrais ensembles" que ZF seul. Pour les non-réalistes, il n'y a pas de vrais ensembles. Les objets mathématiques ne sont que des constructions mentales et l'indécidabilité n'est que le symptôme du fait que nos intuitions ne suffisent pas à caractériser pleinement les ensembles infinis. Pour eux, il n'y a que deux types d'ensembles, ceux qui satisfont HC et ceux qui ne la satisfont pas. Il en est de même pour les grands cardinaux . Les accepter ou non est une matière d'appréciation personnelle. Mais l'itération à l'infini sur les grand cardinaux par exemple, revient à s'éloigner de plus en plus de l'intuition immédiate, et on a prouvé que certains de ces axiomes sont contradictoires. 


              c) Les indécidables de Paris et Harrington (1977).

    C'est la découverte d'une question simple et intéressante, ne dépendant pas d'un codage numérique de notions logiques, et qui est indécidable (ce qui montre à quel point les logiciens ont considéré comme important le fait d'exhiber un énoncé indécidable d'arithmétique ne dépendant pas directement d'une construction ad hoc). Cette découverte est le théorème de Ramsey fini. L'énoncé en est  complexe, mais il est explicite contrairement à la formule de Gödel, qu'il serait effroyablement long et fastidieux d'expliciter. C'est une variante de ce théorème qui a été démontrée en 1928, en dehors de toute considération logique. Paris et Harrington en ont prouvé l'indécidabilité dans l'arithmétique de Peano du premier ordre. D'autres énoncés du même type, comme la forme finie du théorème de Kruskal et Friedman ont été publiés. Ils sont un premier pas vers des énoncés indécidables issus directement de l'arithmétique, mais ils sont suffisamment marginaux pour que de nombreux mathématiciens considèrent toujours que les indécidables n'interviennent pas dans l'arithmétique courante. Si le grand théorème de Fermat a été démontré en 1993, il reste toujours la procédure de Goldbach non démontrée...


              d) Les équations diophantiennes.

    C'est l'objet du dixième parmi les 23 problèmes irrésolus que Hilbert a énoncés au congrès international des mathématiciens de 1900. Une équation diophantienne est une équation de la forme P(x1, x2,... xn = 0) où P est un polynôme à coefficients entiers. Par exemple, 3x puiss 4 + 8 y puiss 7 + 5 z puiss 9 - 8 = 0 est une équation diophantienne dont x =1, y = 0 z= 1 est solution. Hilbert demandait que soit trouvé un algorithme permettent de décider pour toute équation de ce type si elle avait des solutions entières ou pas. Matijasevic a démontré en 1970 qu'un tel algorithme n'existait pas. Ici, il ne s'agit pas d'un énoncé, mais d'un problème indécidable: il n'existe aucun algorithme permettant de le résoudre en général. D'autre part, il existe des équations simples (qui s'écrivent sous forme de polynômes) dont sait à la fois qu'elles n'ont pas de solution et qu'il est imposssible de le démontrer dans le système dans lequel elles ont été formulées. 

     

              e) Les indécidables de l'informatique et de la théorie algorithmique de                                 l'information.     


    Un ordinateur fonctionne en exécutant des programmes. On attend qu'il fournisse un résultat et qu'il s'arrête au bout d'un moment (si possible pas trop long?). Dans des cas simples, on sait que l'ordinateur fonctionnera sans s'arrêter jusqu'à la fin des temps, par exemple si le programme contient la boucle infinie suivante: "Instruction 1: a = 10. Instruction 2: tant que a > 0 faire a = a + 1". Il serait très utile de posséder une méthode générale permettant de savoir pour tout programme s'il s'arrêtera ou pas. Il est possible de montrer qu'une telle méthode n'existe pas (ni aucun algorithme, ni aucun programme). Ce problème, dénommé "problème de l'arrêt" a été prouvé indécidable par Turing en 1936, au même sens que la résolution des équations diophantiennes). 

    La théorie algorithmique de l'information a été élaborée par KolmogorovRay Solomonov et Chaitin dans les années 1960. Son objet est l'étude de la complexité des objets finis comme les suites de nombres. La complexité algorithmique d'un objet est la longueur du plus petit programme informatique capable de l'engendrerEtant donné s, une suite finie de 0 et de 1, on note K(s) sa complexité. On peut alors montrer que dans tout système formel S, il n'est possible de prouver qu'un nombre fini d'énoncés du type "K(s) = n". En d'autres termes, quelque soit le type de système formel dans lequel on se place, tous les énoncés de ce type, sauf un nombre fini, sont indécidables. Ce résultat extrêmement surprenant signifie que dans presque tous les cas, on ne peut prouver que la complexité d'uns suite donnée est égale à une certaine valeur.

    Autre exemple d'indécidabilité: le nombre OMEGA de Chaitin. Ce nombre est défini comme la probabilité pour qu'un ordinateur à qui on fait exécuter un programme tiré au hasard  finisse par s'arrêter. Ce nombre a des propriétés étranges. On peut montrer que la connaissance de ses mille premiers digits permettrait de résoudre la plupart des conjectures mathématiques. Malheureusement, il est aléatoire et incompressible, ce qui signifie qu'aucun algorithme ne peut permettre de calculer un par un ses digits. Ce nombre a des propriétés étranges. On peut montrer que la connaissance de ses mille premiers digits permettrait de résoudre la plupart des conjectures mathématiques. Malheureusement, il est aléatoire et incompressible, ce qui signifie qu'aucun algorithme ne peut permettre de calculer un par un ses digits. On peut même montrer qu'aucun système formel ne permet d'en calculer plus qu'un nombre fini. Tous les énoncés du type "la nième décimale de OMEGA vaut 1 sont indécidables à partir d'un certain rang. 


    3) Conclusion.

    La position confortable consistant à croire que les mathématiques permettent de prouver toutes les assertions vraies, que les méthodes de raisonnement utilisées sont incontestables et qu'il est possible de prouver qu'elles le sont doit être rejetée. De plus, comme le dit Hourya Sinacoeur: "S'il est relativement aisé de reconnaître la validité d'un résultat à partir d'hypothèses admises, il l'est beaucoup moins de se mettre d'accord sur les hypothèses que l'on peut ou doit admettre." Selon l'opinion philosophique qu'on adopte (réalisme, idéalisme, constructivisme, formalisme, intuitionnisme), on adoptera ou on refusera certains objets mathématiques et certaines méthodes de démonstration. Ce qui importe, c'est qu'on doit abandonner la tentation fondationnaliste d'évacuer toute incertitude en logique et en mathématiques, comme elle l'a été dans les sciences empiriques.

    Les premières incertitudes sont de type philosophique et sont la manifestation de différences de position métaphysique. Croire que les objets mathématiques ont une existence réelle (bien que de nature différente), que les arbres ou les tables, est une croyance qui se situe à un niveau tellement fondamental que les adversaires (qui croient que ce ne sont que des constructions humaines) ne peuvent être convaincus, et réciproquement. De la même manière, accepter les ontologies de plus en plus engagées et donc risquées (ne croire qu'au fini, à l'infini actuel dénombrable, puis croire en l'existence de grands cardinaux de plus en plus grands), est matière de conviction personnelle fonction d'arguments favorables ou défavorables. Ce qu'il faut en retenir, c'est que les mathématiques ne peuvent trancher définitivement (du moins pour le moment) et il est peu probable que cette incertitude puisse être un jour éliminée définitivement.

    Les deuxièmes sont des incertitudes techniques, sur lesquelles tous les mathématiciens sont d'accord. Situées à l'intérieur de cadres précis, elles signifient qu'il n'existe pas de cadre englobant la totalité des mathématiques dans lequel il est possible de prouver de manière certaine toute vérité. D'autre part, pour montrer la consistance, on est obligé d'avoir recours à des méthodes qui sortent de ce cadre et qui sont hors du champ de consistance qu'elles ont concouru à prouver. On est ainsi obligé de nouveau de sortir du cadre et ainsi à l'infini. De plus, dans tout cadre suffisamment puissant, il existe des vérités qu'on ne peut prouver formellement.  


    Il y a donc deux niveaux d'incertitude. Le premier, de nature philosophique est celui qui concerne le cadre qu'il convient d'adopter (la débat est toujours ouvert et n'est pas prêt d'être clos). Le second est celui qui subsiste à l'intérieur de tout cadre et sur lequel les mathématiciens sont tous d'accord. Comme le dit Ladrière: "le formalisme ne peut recouvrir adéquatement le contenu de l'intuition et, en ce sens, l'idée d'une formalisation totale doit être considérée comme irréalisable."

    On ne doit cependant pas en retirer l'impression que que ces incertitudes permettent d'accepter n'importe quel point de vue. Elle sont une preuve éclatante de l'efficacité du raisonnement scientifique. On doit éliminer le conceptions intuitives naïves qu'on pourrait avoir à priori et certaines idées séduisantes qui ne sont pas cohérentes. Cela permet de délimiter les contours de ce qu'il est possible de penser, croire ou construire. L'univers du discours est beaucoup complexe que ce que l'intuition nous laisse croire et nous en apercevons les limites. On a évoque le paradoxe selon lequel le raisonnement scientifique est capable de cerner ses propres limites. Mais il n'est qu'apparent: une méthode peut être utilisée pour montrer qu'elle n'est pas utilisable dans un domaine. Il suffit de l'appliquer de toutes manières possibles et de constater qu'elle n'aboutit pas au résultat recherché. Bien que négatif, ce résultat doit être compris comme uns connaissance supplémentaire et non comme échec de la raison. C'es là le sens de ces limites en mathématique et en logique.



    votre commentaire



    Suivre le flux RSS des articles
    Suivre le flux RSS des commentaires