Communication Afscet au Moulin d'Andé, 8-9 juin 2002
Modélisation mathématique de l'évolution :
du continu classique au discret quantique.
Résumé.
Dans cette contribution, nous proposons d'évoquer
divers points de la modélisation
mathématique des processus d'évolution, en gardant
en mémoire les aspects historiques et la lente
évolution des idées. Nous évoquons un paradoxe entre
les approches continues et discrètes, sa résolution par
le calcul infinitésimal et les équations différentielles,
approchées par la technologie moderne avec des
schémas numériques discrets. La notion moderne de
chaos est issue de cette approche déterministe et est
associée aux grandes variations de solutions
d'équations par perturbation de certains paramètres.
Cette incertitude de fait s'oppose à l'incertitude
inhérente au modèle quantique, efficace pour la
description des petites échelles de la Nature, où les
relations d'incertitude induisent des fluctuations
permanentes qui rendent une évolution toujours
potentielle.
1)
Paradoxe entre le continu et le discret.
Rappelons que la description du mouvement comme un
processus d'évolu-tion temporelle
a d'abord donné lieu à une situation paradoxale
décrite par Zénon d'Elée au cinquième siècle avant
Jésus Christ ; bien qu'Achille aille plus vite que la
tortue, il ne la rattrape pas ! En effet, pour parcourir la
moitié de la distance qui le sépare de la tortue, Achille
met un certain temps. Mais durant ce temps-là, la
tortue a avancé ! Il en est de même pour la distance
suivante : le temps qu'Achille en parcoure la moitié, la
tortue s'est encore déplacée... Donc, pour Zénon,
Achille ne peut pas rattraper la tortue.
2)
Equations différentielles ordinaires.
Cette contradiction est levée par la remarque
suivante. La somme des intervalles
de temps qui est considérée par Zénon peut s'écrire
sous la forme : un demi, plus un quart, plus un
huitième, plus et caetera. Cette somme comporte une
infinité de termes mais il s'agit bien d'une somme finie !
On manipule en fait une ``série convergente'', une
``limite mathématique'' qui est un objet caractéristique
du calcul infinitésimal, inventé par Newton et Leibniz
au dix-septième siècle.
Cette constitution de l'analyse mathématique, du
calcul sur des grandeurs
infiniment petites, ouvre la voie des équations
différentielles, dites ``ordinaires'' depuis l'ouvrage
d'Arnold dans les années 1960. Ce méta-modèle permet
une réelle universalité trans-disciplinaire ; il permet
par exemple de décrire un système mécanique simple
comme une masse et un ressort, un circuit électrique,
ou bien l'ensemble d'un satellite. Nous pouvons
l'illustrer ici par le système des proies et des
prédateurs proposé par Volterra et Lotka à la fin du
dix-neuvième siècle. La présence de termes non
linéaires qui prennent en compte de réelles
inter-actions entre les acteurs du système conduit à
un ``cycle limite'', une oscillation auto-entretenue
d'origine parfaitement non banale. Inutile de rappeler
l'universalité de l'approche mathématique : une fois le
phénomène modélisé avec un jeu d'équations, il peut
se transcrire d'une discipline à l'autre...
3)
Schémas numériques.
On retrouve les mathématiques discrètes si
on essaie de calculer numérique-ment
la solution approchée d'un système dynamique, i.e. de
l'ensemble de deux équations formé d'une part d'une
équation différentielle qui décrit l'évolution au cours
du temps, et d'autre part d'une condition initiale. Au
dix-huitième siècle, Euler propose d'introduire un
``quantum'' de temps, un (petit) intervalle Dt , et de
chercher une valeur approchée du système pour des
multiples entiers de ce Dt.
Au début du vingtième
siècle, Runge et Kutta ont généralisé cette démarche
pour construire des algorithmes utilisés tous les jours
par les ingénieurs du vingt et unième.
Ces problèmes de discrétisation sont au coeur des approches
modernes qui utilisent
les ordinateurs pour effectuer des calculs numériques.
Une calculatrice électronique implémente un
algorithme, qui est la trace discrète de l'équation
différentielle du modèle continu, après l'étape cruciale
de discrétisation, c'est à dire le passage d'un univers
mathématique continu à un cadre discret paramétré
par les nombres entiers, lequel définit un nouveau
modèle, purement numérique. Cette étape contient de
réelles difficultés mathématiques cachées entre la
modéli-sation mathématique et la mise en oeuvre sur
ordinateur, à savoir la stabilité, phénomène
mathématique étudié au milieu du vingtième siècle par
Von Neumann et Lax. Seuls les schémas numériques
stables sont utilisables dans un ordinateur.
4)
Chaos.
Le chaos peut surgir des équations différentielles.
C'est une grande décou-verte
des années 1960, due au météorologue E. Lorenz et au
mathématicien David Ruelle. Pour des systèmes ``bien
choisis'' d'équations différentielles, une petite
perturbation des conditions initiales comme ``le
mouvement d'une mouette'', selon Lorenz, entraîne
après un temps fini un écart sur la solution du système
qui est de l'ordre de grandeur de la taille de l'espace de
configuration explorable. La prédiction du mouvement
est impossible du point de vue pratique et
algorithmique ; une discrétisation assez précise du
système est trop complexe et coûterait trop cher pour
assurer une prédiction correcte. On a une
phénoménologie analogue avec des systèmes
purement discrets et l'attracteur de Hénon (1976) en
est un exemple.
Ce chaos surgi des ``systèmes déterministes''
les plus classiques n'est pas
restreint aux modèles purement abstraits. En
cherchant des méthodes de prévision du mouvement
des planètes du système solaire sur de très longues
périodes de temps, Jacques Laskar a découvert en
1995 que ce problème n'a pas de solution ! Si le
mouvement des grosses planètes (Jupiter, Saturne) est
stable et possible à déterminer dans un futur même
très lointain, le mouvement des planètes intérieures
(Mercure, Vénus, la Terre et Mars) est chaotique sur
des périodes de l'ordre du million d'années, ce qui est
très peu comparé à l'âge du système solaire, de l'ordre
du milliard d'années.
5)
Mécanique quantique.
A petite échelle, disons le milliardième
de mètre, ce qui constitue une
dimension caractéristique de l'atome, on ne peut plus
parler de mouvement continu, concept qui conduirait à
des paradoxes pour le rayonnement électromagné-tique
au sein de l'atome, en contradiction avec les
observations expérimentales. On peut mettre en
évidence au contraire des raies d'émission de ``grains
de lumière'', hypothèse du photon formulée par
Einstein qui lui valut le prix Nobel au début du
vingtième siècle. Suite à ce choc conceptuel de la
physique quantique, les physiciens sont devenus très
modestes dans leur approche de la description du
monde. Pour Heisenberg, ``la physique est simplement
l'étude de nos rapports avec la Nature''. En effet,
l'observation, la mesure, perturbent
fondamentalement le monde microscopique que l'on
cherche à observer, et on n'a pas accès à la réalité en
dehors de mesures perturbantes.
Ainsi, la théorie quantique de Bohr et
l'ensemble de l'école de Copenhague,
propose simplement de déterminer une densité de
probabilité de présence d'un ``objet élémentaire'' pour
toute position possible. L'outil mathématique est la
``fonction d'onde'' proposée initialement par De Broglie,
qui suit une évolution à la fois continue et discrète ! Si
on n'observe pas le système quantique, il suit
l'évolution proposée par l'équation de Schrödinger
(1930), version quantique de la conservation de
l'énergie. Si on effectue une mesure physique, il y a
``réduction du paquet d'ondes'', qu'on peut interpréter
comme une localisation du système observé dans un
état particulier, ou une projection mathématique dans
un espace de Hilbert sur un ``mode propre'' de l'appareil
de mesure.
Il est étonnant de constater que ce cadre conceptuel très peu satisfaisant
fournit des prédictions numériques remarquables,
comme par exemple les seize chiffres significatifs de
la ``constante de structure fine'' (environ un divisé par
cent trente sept) qui caractérise la ``force'' de
l'interaction électromagnétique. De plus, cette
réduction du paquet d'onde peut avoir des effets non
locaux en espace. L'expérience d'Alain Aspect (1980) a
montré qu'avec une vision classique de l'espace, la
propagation d'une éventuelle information entre les
constituants disjoints d'un même être quantique
s'effectue à une célérité qui peut être supérieure à
celle de la lumière !
6)
Relations d'incertitude.
Cette réalité quantique, ou plutôt cet
incertain sur ce qu'est la réalité
du monde à petite échelle, doit nous faire remettre en
cause des phrases aussi simples que ``Achille est à un
point précis d'Athènes et rattrape la tortue à la vitesse
exacte de trente kilomètres par heure''. Les relations
d'incertitude de Heisenberg montrent qu'on ne peut
mesurer avec une précision arbitraire à la fois la
position et l'impulsion d'un objet quantique. Une
conséquence fondamentale est que l'équilibre statique,
l'immobilisme est impossible aux petites échelles de la
Nature.
Le quantum d'action, la constante h proposée par
Planck dès la fin du
dix-neuvième siècle, est toujours présente pour
mesurer l'incertitude fondamentale entre la position et
la vitesse, même pour les états les plus stables. Il
introduit des fluctuations permanentes, des
mouvements infinitésimaux nécessaires, qui rendent
une évolution toujours potentielle.
François Dubois, 20 juin 2002, édition août 2002.
|