Communication Afscet au Moulin d'Andé, 8-9 juin 2002

Modélisation mathématique de l'évolution :
du continu classique au discret quantique.

Résumé.
            Dans cette contribution, nous proposons d'évoquer divers points de la modélisation mathématique des processus d'évolution, en gardant en mémoire les aspects historiques et la lente évolution des idées. Nous évoquons un paradoxe entre les approches continues et discrètes, sa résolution par le calcul infinitésimal et les équations différentielles, approchées par la technologie moderne avec des schémas numériques discrets. La notion moderne de chaos est issue de cette approche déterministe et est associée aux grandes variations de solutions d'équations par perturbation de certains paramètres. Cette incertitude de fait s'oppose à l'incertitude inhérente au modèle quantique, efficace pour la description des petites échelles de la Nature, où les relations d'incertitude induisent des fluctuations permanentes qui rendent une évolution toujours potentielle.

1)   Paradoxe entre le continu et le discret.
       Rappelons que la description du mouvement comme un processus d'évolu-tion temporelle a d'abord donné lieu à une situation paradoxale décrite par Zénon d'Elée au cinquième siècle avant Jésus Christ ; bien qu'Achille aille plus vite que la tortue, il ne la rattrape pas ! En effet, pour parcourir la moitié de la distance qui le sépare de la tortue, Achille met un certain temps. Mais durant ce temps-là, la tortue a avancé ! Il en est de même pour la distance suivante : le temps qu'Achille en parcoure la moitié, la tortue s'est encore déplacée... Donc, pour Zénon, Achille ne peut pas rattraper la tortue.

2)   Equations différentielles ordinaires.
       Cette contradiction est levée par la remarque suivante. La somme des intervalles de temps qui est considérée par Zénon peut s'écrire sous la forme : un demi, plus un quart, plus un huitième, plus et caetera. Cette somme comporte une infinité de termes mais il s'agit bien d'une somme finie ! On manipule en fait une ``série convergente'', une ``limite mathématique'' qui est un objet caractéristique du calcul infinitésimal, inventé par Newton et Leibniz au dix-septième siècle.
       Cette constitution de l'analyse mathématique, du calcul sur des grandeurs infiniment petites, ouvre la voie des équations différentielles, dites ``ordinaires'' depuis l'ouvrage d'Arnold dans les années 1960. Ce méta-modèle permet une réelle universalité trans-disciplinaire ; il permet par exemple de décrire un système mécanique simple comme une masse et un ressort, un circuit électrique, ou bien l'ensemble d'un satellite. Nous pouvons l'illustrer ici par le système des proies et des prédateurs proposé par Volterra et Lotka à la fin du dix-neuvième siècle. La présence de termes non linéaires qui prennent en compte de réelles inter-actions entre les acteurs du système conduit à un ``cycle limite'', une oscillation auto-entretenue d'origine parfaitement non banale. Inutile de rappeler l'universalité de l'approche mathématique : une fois le phénomène modélisé avec un jeu d'équations, il peut se transcrire d'une discipline à l'autre...

3)   Schémas numériques.
       On retrouve les mathématiques discrètes si on essaie de calculer numérique-ment la solution approchée d'un système dynamique, i.e. de l'ensemble de deux équations formé d'une part d'une équation différentielle qui décrit l'évolution au cours du temps, et d'autre part d'une condition initiale. Au dix-huitième siècle, Euler propose d'introduire un ``quantum'' de temps, un (petit) intervalle Dt , et de chercher une valeur approchée du système pour des multiples entiers de ce Dt. Au début du vingtième siècle, Runge et Kutta ont généralisé cette démarche pour construire des algorithmes utilisés tous les jours par les ingénieurs du vingt et unième.
       Ces problèmes de discrétisation sont au coeur des approches modernes qui utilisent les ordinateurs pour effectuer des calculs numériques. Une calculatrice électronique implémente un algorithme, qui est la trace discrète de l'équation différentielle du modèle continu, après l'étape cruciale de discrétisation, c'est à dire le passage d'un univers mathématique continu à un cadre discret paramétré par les nombres entiers, lequel définit un nouveau modèle, purement numérique. Cette étape contient de réelles difficultés mathématiques cachées entre la modéli-sation mathématique et la mise en oeuvre sur ordinateur, à savoir la stabilité, phénomène mathématique étudié au milieu du vingtième siècle par Von Neumann et Lax. Seuls les schémas numériques stables sont utilisables dans un ordinateur.

4)   Chaos.
       Le chaos peut surgir des équations différentielles. C'est une grande décou-verte des années 1960, due au météorologue E. Lorenz et au mathématicien David Ruelle. Pour des systèmes ``bien choisis'' d'équations différentielles, une petite perturbation des conditions initiales comme ``le mouvement d'une mouette'', selon Lorenz, entraîne après un temps fini un écart sur la solution du système qui est de l'ordre de grandeur de la taille de l'espace de configuration explorable. La prédiction du mouvement est impossible du point de vue pratique et algorithmique ; une discrétisation assez précise du système est trop complexe et coûterait trop cher pour assurer une prédiction correcte. On a une phénoménologie analogue avec des systèmes purement discrets et l'attracteur de Hénon (1976) en est un exemple.
       Ce chaos surgi des ``systèmes déterministes'' les plus classiques n'est pas restreint aux modèles purement abstraits. En cherchant des méthodes de prévision du mouvement des planètes du système solaire sur de très longues périodes de temps, Jacques Laskar a découvert en 1995 que ce problème n'a pas de solution ! Si le mouvement des grosses planètes (Jupiter, Saturne) est stable et possible à déterminer dans un futur même très lointain, le mouvement des planètes intérieures (Mercure, Vénus, la Terre et Mars) est chaotique sur des périodes de l'ordre du million d'années, ce qui est très peu comparé à l'âge du système solaire, de l'ordre du milliard d'années.

5)   Mécanique quantique.
       A petite échelle, disons le milliardième de mètre, ce qui constitue une dimension caractéristique de l'atome, on ne peut plus parler de mouvement continu, concept qui conduirait à des paradoxes pour le rayonnement électromagné-tique au sein de l'atome, en contradiction avec les observations expérimentales. On peut mettre en évidence au contraire des raies d'émission de ``grains de lumière'', hypothèse du photon formulée par Einstein qui lui valut le prix Nobel au début du vingtième siècle. Suite à ce choc conceptuel de la physique quantique, les physiciens sont devenus très modestes dans leur approche de la description du monde. Pour Heisenberg, ``la physique est simplement l'étude de nos rapports avec la Nature''. En effet, l'observation, la mesure, perturbent fondamentalement le monde microscopique que l'on cherche à observer, et on n'a pas accès à la réalité en dehors de mesures perturbantes.
       Ainsi, la théorie quantique de Bohr et l'ensemble de l'école de Copenhague, propose simplement de déterminer une densité de probabilité de présence d'un ``objet élémentaire'' pour toute position possible. L'outil mathématique est la ``fonction d'onde'' proposée initialement par De Broglie, qui suit une évolution à la fois continue et discrète ! Si on n'observe pas le système quantique, il suit l'évolution proposée par l'équation de Schrödinger (1930), version quantique de la conservation de l'énergie. Si on effectue une mesure physique, il y a ``réduction du paquet d'ondes'', qu'on peut interpréter comme une localisation du système observé dans un état particulier, ou une projection mathématique dans un espace de Hilbert sur un ``mode propre'' de l'appareil de mesure.
       Il est étonnant de constater que ce cadre conceptuel très peu satisfaisant fournit des prédictions numériques remarquables, comme par exemple les seize chiffres significatifs de la ``constante de structure fine'' (environ un divisé par cent trente sept) qui caractérise la ``force'' de l'interaction électromagnétique. De plus, cette réduction du paquet d'onde peut avoir des effets non locaux en espace. L'expérience d'Alain Aspect (1980) a montré qu'avec une vision classique de l'espace, la propagation d'une éventuelle information entre les constituants disjoints d'un même être quantique s'effectue à une célérité qui peut être supérieure à celle de la lumière !

6)   Relations d'incertitude.
       Cette réalité quantique, ou plutôt cet incertain sur ce qu'est la réalité du monde à petite échelle, doit nous faire remettre en cause des phrases aussi simples que ``Achille est à un point précis d'Athènes et rattrape la tortue à la vitesse exacte de trente kilomètres par heure''. Les relations d'incertitude de Heisenberg montrent qu'on ne peut mesurer avec une précision arbitraire à la fois la position et l'impulsion d'un objet quantique. Une conséquence fondamentale est que l'équilibre statique, l'immobilisme est impossible aux petites échelles de la Nature. Le quantum d'action, la constante h proposée par Planck dès la fin du dix-neuvième siècle, est toujours présente pour mesurer l'incertitude fondamentale entre la position et la vitesse, même pour les états les plus stables. Il introduit des fluctuations permanentes, des mouvements infinitésimaux nécessaires, qui rendent une évolution toujours potentielle.

    François Dubois,   20 juin 2002, édition août 2002.