EVIDENCES EXPERIMENTALES DE SYSTEMES PHYSIQUES NON GAUSSIENS Pierre Delhaes, Centre de Recherche Paul Pascal (Université de Bordeaux et CNRS, e-mail :[email protected]) Résumé : L’observation de la marche au hasard d’une particule en suspension dans un fluide a été le départ de l’étude quantitative du mouvement brownien. C’est l’équation d’Einstein en 1905 en explicitant ce phénomène de diffusion naturelle (écart quadratique moyen du déplacement proportionnel au temps) qui a été le déclencheur d’une approche microscopique probabiliste. Elle est considérée comme une rupture épistémologique par rapport aux lois phénoménologiques de diffusion et de transport établies au cours du XIX ème siècle. Cette équation a conduit notamment à la détermination du nombre d’Avogadro, mettant en évidence le grand changement d’échelle de description. Un modèle probabiliste de déplacement aléatoire des particules est alors justifié par une courbe de distribution en cloche qui est une fonction gaussienne associée à l’entropie statistique de Boltzmann. Cependant il est apparu ensuite qu’un tel comportement dit de loi normale n’est pas toujours observé et que des lois statistiques plus générales existent. Ceux sont les lois stables de Lévy ou des valeurs extrêmes, établies à vers 1930 et caractérisées par une longue queue de distribution en loi de puissance (relation linéaire log-log). Depuis un grand nombre de travaux théoriques sont venus étayés cette approche située au-delà du mouvement brownien qu’il faut confronter à l’expérience. De plus en plus d’évidences expérimentales existent en physique, chimie ou biologie. Nous les avons analysées et classées en fonction de leur situation thermodynamique, proche ou loin d’un état d’équilibre pour un système qui peut échanger avec l’environnement. Dans le cas de processus de diffusion ou de transport massique, atomique ou moléculaire, l’importance des défauts structuraux et l’homogénéité du milieu ambiant apparaissant comme des paramètres essentiels pour un comportement qualifié de sous- ou sur-diffusif. Pour des particules quantiques (électrons, phonons, photons) les régimes de transport sous champ externe sont variables et dépendant de la taille (nanosystèmes) et de la nature du système considéré. En particulier le comportement de ces systèmes dynamiques (fermés ou ouverts) peut se situer loin de l’équilibre thermodynamique et se rapprocher d’un état chaotique déterministe. Le classement de ces nombreuses situations expérimentales repose sur trois approches complémentaires qui convergent vers une vue unifiée. D’une par les lois plus générales de distribution statistique de type Lévy sont associées avec une description en géométrie fractale imaginée par Mandelbrot. D’autre part une généralisation de la notion d’entropie statistique proposée par Tsallis et associée au principe d’une production d’entropie maximale dans un système évolutif complètent cette analyse. Nous montrons ainsi que la statistique gaussienne usuelle
This document is posted to help you gain knowledge. Please leave a comment to let me know what you think about it! Share it to your friends and learn new things together.
Transcript
EVIDENCES EXPERIMENTALES DE SYSTEMES PHYSIQUES NON GAUSSIENS
L’observation de la marche au hasard d’une particule en suspension dans un fluide
a été le départ de l’étude quantitative du mouvement brownien. C’est l’équation d’Einstein
en 1905 en explicitant ce phénomène de diffusion naturelle (écart quadratique moyen du
déplacement proportionnel au temps) qui a été le déclencheur d’une approche
microscopique probabiliste. Elle est considérée comme une rupture épistémologique par
rapport aux lois phénoménologiques de diffusion et de transport établies au cours du XIX ème siècle. Cette équation a conduit notamment à la détermination du nombre d’Avogadro,
mettant en évidence le grand changement d’échelle de description. Un modèle probabiliste
de déplacement aléatoire des particules est alors justifié par une courbe de distribution en
cloche qui est une fonction gaussienne associée à l’entropie statistique de Boltzmann.
Cependant il est apparu ensuite qu’un tel comportement dit de loi normale n’est pas
toujours observé et que des lois statistiques plus générales existent. Ceux sont les lois
stables de Lévy ou des valeurs extrêmes, établies à vers 1930 et caractérisées par une longue
queue de distribution en loi de puissance (relation linéaire log-log). Depuis un grand nombre
de travaux théoriques sont venus étayés cette approche située au-delà du mouvement
brownien qu’il faut confronter à l’expérience. De plus en plus d’évidences expérimentales
existent en physique, chimie ou biologie. Nous les avons analysées et classées en fonction de
leur situation thermodynamique, proche ou loin d’un état d’équilibre pour un système qui
peut échanger avec l’environnement. Dans le cas de processus de diffusion ou de transport
massique, atomique ou moléculaire, l’importance des défauts structuraux et l’homogénéité
du milieu ambiant apparaissant comme des paramètres essentiels pour un comportement
qualifié de sous- ou sur-diffusif. Pour des particules quantiques (électrons, phonons,
photons) les régimes de transport sous champ externe sont variables et dépendant de la
taille (nanosystèmes) et de la nature du système considéré. En particulier le comportement
de ces systèmes dynamiques (fermés ou ouverts) peut se situer loin de l’équilibre
thermodynamique et se rapprocher d’un état chaotique déterministe. Le classement de ces
nombreuses situations expérimentales repose sur trois approches complémentaires qui
convergent vers une vue unifiée. D’une par les lois plus générales de distribution statistique
de type Lévy sont associées avec une description en géométrie fractale imaginée par
Mandelbrot. D’autre part une généralisation de la notion d’entropie statistique proposée par
Tsallis et associée au principe d’une production d’entropie maximale dans un système
évolutif complètent cette analyse. Nous montrons ainsi que la statistique gaussienne usuelle
n’est qu’une approche simplifiée d’une situation plus complexe. C’est une limite de validité
pour les grandes lois phénoménologiques qui apparait particulièrement dans les systèmes
mésoscopiques (nanomateriaux, macromolécules) et qui est présente dans beaucoup de
domaines scientifiques.
Abstract :
The observation of particles undergoing a random walk inside a fluid is the starting
point of a quantitative analysis of the Brownian motion. The explanation given by Einstein in
1905, where the mean square displacement is proportional to time, has been the keystone
for this microscopic and probabilistic approach. It has been considered later one, as an
epistemological breakdown from the phenomenological transport laws established during
the XIX th century including the determination of Avogadro number which underlines the
large difference of scale description. A probabilistic model for such random process gives a
bell shaped curved relevant of a Gaussian distribution which is related to the Boltzmann
statistics entropy. It appears nevertheless that such behavior known as the normal law is
not always applicable in practice and that more general statistical laws exist. They are known
as the stable Lévy laws for extreme displacements established around 1930 : they are
characterized by long-tailed distributions and a power law (log-log linear dependence). Since
that time a lot of theoretical works have been accomplished to justify a particle motion
beyond Brownian behavior. In parallel more and more experimental evidences have been
evidenced in Physics, Chemistry and Biology. We have reported and classified them in
relation with their thermodynamics situation, i.e. nearby or far from equilibrium in flux
exchange systems with the surroundings. In the case of mass diffusion or transport of atoms
or molécules, it turns out that disordered structures and inhomogeneous media play a
fundamental role in the processes associated with a sub- or sur-diffusion regime.
Considering quantum particles (electrons, phonons and photons) submited to different
external force fields, several transport regimes are present. They are function of the size
(nanosystems) and the nature of the considered system which could be out of equilibrium,
reaching eventually a chaotic state. The classification of numerous results are analysed
following three complementary approaches which are going towards an unified picture. On
one hand the distribution laws of Lévy type are associated with the fractal geometry
invented by Mandelbrot. On the other hand a generalisation of the statistical entropy
proposed by Tsallis and associated with the principle of maximum entropy production for an
evolutive system, completes the picture. Finally we show that the usual gaussian distribution
is just a simplified class of more complex situations. It induces a breakdown of the usual
phenomenological law appearing for example in mesoscopic systems (nanomaterials,
macromolecules) and occuring also in many scientific domains.
Sommaire :
Introduction
1. La loi normale des grands nombres et ses conséquences.
1.1. La statistique de Maxwell-Boltzmann.
1.2. Le phénomène de diffusion et l’équation de Langevin.
1.3. La naissance de la thermodynamique statistique.
2. Les lois statistiques généralisées.
2.1. Rappels à propos des lois stables de Lévy.
2.2. Caractéristiques des systèmes dynamiques.
2.3. Les modèles numériques de marche au hasard.
2.4. Fluctuations et corrélations d’une grandeur physique.
2.5. Comportement des nanosystèmes.
3. Applications aux systèmes physiques.
3.1. Présentation générale.
3.2. La distribution de Cauchy-Lorentz.
4. Diffusion de Lévy pour des particules classiques.
4.1. Situations en hydrodynamique.
4.2. Adsorption et diffusion interfaciales.
a) Diffusion en milieu poreux ou granulaire.
b) Couches adsorbées de polymères sur une surface solide.
c) Diffusion anormale de micelles.
4.3. Diffusion sur une surface évolutive.
a) Adatomes et agrégats à une interface.
b) Croissance fractale par mécanisme DLA (« Diffusion Limited
Aggregation »).
4.4. Extension en biophysique.
a) Cas en biologie moléculaire.
b) Cas des cellules vivantes.
4.5. Processus physico-chimique de compétition réaction-diffusion.
4.6. Caractéristiques générales de la diffusion massique.
5. Diffusion de Lévy avec des particules quantiques.
5.1. Transport électrique dans les solides.
a) Photoconductivité dans les solides amorphes.
b) Processus de conduction par sauts.
c) Transport électronique dans les milieux désordonnés.
d) Transport dans les systèmes mésoscopiques.
e) Conduction et magnétisme dans les verres.
f) Analyse du bruit en supraconductivité.
5.2. Transport de la lumière.
a) Refroidissement LASER à effet subreculet réseaux optiques.
b) Propagation dans les milieux amplificateurs aléatoires.
c) Transport optique dans les solides hétérogènes et les nanomatériaux.
5.3. Transport de la chaleur.
a) Cas de solides non-cristallins ou hétérogènes.
b) Situation dans les nanomatériaux.
c) Transport thermique dans les solides de basse dimensionnalité.
5.4. Récapitulatif sur les différents types de transport.
Encadré : Portrait de phase dans les systèmes dynamiques.
6. Comparaison avec l’approche thermodynamique.
6.1. Rappels de thermodynamique phénoménologique.
6.2. Entropie statistique généralisée.
6.3. Production d’entropie.
6.4. Liens avec les situations physiques.
7. Conclusion.
La naissance de la physique moderne à la fin du XIX ème siècle est associée aux preuves
d’existence des atomes et des molécules établies en Chimie. Cet essor a entrainé un profond
changement allant vers une échelle de description beaucoup plus approfondie. Une analyse
au niveau microscopique, impliquant un développement de la physique statistique, a ainsi vu
le jour. C’est aussi le passage de la physique déterministe de Newton vers une description
microscopique de nature probabiliste impliquant la notion de fonction de distribution. La
découverte de la mécanique quantique au début du XX ème siècle a complété en l’étendant,
ce changement de paradigme. L’avancée historique s’est alors concrétisée par la définition
de loi de probabilité pour un ensemble de particules identiques formant un système
physique défini qui peut dépendre d’une ou plusieurs variables aléatoires. Le système
considéré est dans un état physique supposé initialement à l’équilibre ou bien généralisé à
des situations hors équilibre, stationnaire ou dynamique, quand une contrainte extérieure
ou un stimulus lui est imposée. Un processus microscopique dit stochastique peut alors
rendre compte de l’évolution temporelle d’un tel système.
Historiquement les grands noms de la physique à cette époque, comme Maxwell,
Boltzmann, Gibbs, Lorentz et Einstein notamment, sont associés à ce changement de
représentation et à leurs conséquences [1]. Un développement simultané de la
thermodynamique phénoménologique présentant un caractère fédérateur s’est déroulé au
cours du XIX ème siècle : ceux sont en particulier les travaux de Carnot et Clausius. Les
notions fondamentales d’énergie et d’entropie associées à une température ont permis de
définir un système dit thermodynamique. L’énoncé de principes pour ces fonctions d’état
dans un tel système ont été un apport fondamental au niveau macroscopique. L’introduction
de la formule de Boltzmann exprimant une entropie statistique avec son caractère réversible
dans le temps, a été le point d’achoppement entre les deux niveaux de description [2].
Comme nous le verrons cette interprétation probabiliste à partir d’une fonction de
distribution a été le virage fondamental pour la compréhension thermodynamique au niveau
microscopique. L’extension à des situations physiques dynamique est ensuite
progressivement apparue en développant une mécanique statistique hors équilibre [3]. Cela
concerne en particulier les phénomènes de diffusion contrôlée et l'interprétation
microscopique des grandes lois phénoménologiques de transport d’une grandeur physique :
la masse (Fick), la chaleur (Fourier) ou les charges électriques (Ohm), que nous allons
considérer. Il est apparu ensuite qu’en situation hors équilibre des phénomènes de transport
anormaux sont observés qui ne sont plus décrits par les méthodes de probabilité standards
développées initialement [4].
Dans ce contexte notre propos est de rappeler dans un premier temps les fondements de
cette approche statistique basée sur la fonction de distribution de Maxwell- Boltzmann et les
propriétés induites par cette description continue dite de loi normale ou gaussienne.
L’équivalence entre une description microscopique et un comportement macroscopique du
système considéré est la clé de voute de cette approche. La difficulté inhérente provient de
l’analyse de processus à l’échelle microscopique au travers d’observables physiques en
général macroscopiques. Progressivement au cours du XXème siècle les limites et
insuffisances, concernant cette loi de distribution standard pour un ensemble d’objets
identiques, sont alors apparues. Des fonctions de distribution plus générales sont alors
nécessaires : elles sont fournies par les lois générales de Lévy. Cet auteur a montré qu’il
existe d’autres solutions possibles autres que la fonction de Gauss [4]. Alors arrive la
question fondamentale : comment reconnaitre expérimentalement des systèmes physiques
dynamiques (ou d’autres systèmes apparentés) présentant un comportement non-
gaussien ? L’évidence expérimentale d’une telle situation est l’enjeu essentiel que nous
allons aborder. Pour cela nous allons rappeler les principaux modèles basiques pour ensuite
recenser les exemples physiques, chimiques ou biologiques les plus significatifs. De fait ces
cas de transports anormaux vont apparaître plus nombreux qu’initialement supposé. La
notion intuitive de système thermodynamique demande alors d’être approfondie.
Pour ce faire nous reviendrons sur l’approche microscopique en liaison avec la
thermodynamique statistique et la signification élargie de l’entropie de Boltzmann en
incluant son évolution temporelle, la production d’entropie. Les situations étudiées proche
de l’équilibre sont alors étendues loin de l’équilibre, pouvant aller jusqu’à une situation
chaotique [2]. Dans le cas de diffusions anormales une nouvelle formulation introduite pas
Tsallis [5] permet alors de généraliser cette approche : elle sera présentée dans la sixième
partie. Enfin signalons que l’ensemble des notations, des sigles et symboles utilisés est
donné dans un lexique à la fin de l’article avec un encadré rappelant les causes déterministes
de l’évolution d’un système dynamique.
1. La loi normale des grands nombres et ses conséquences.
Nous allons rappeler la fonction de distribution de Maxwell-Boltzmann, elle-même issue des
travaux antérieurs de Moivre, Laplace et Gauss sur la théorie des probabilités en lui
attribuant un sens physique. Elle est aussi appelée loi des grands nombres car elle permet
une description moyennée à partir d’un échantillonnage suffisant dans le système considéré.
Le processus physique prototype est le phénomène de diffusion de la matière à partir du
mouvement brownien d’une particule observé dans un milieu fluide. Il va induire la notion
microscopique de fluctuations d’une grandeur physique associée à une marche au hasard.
Initialement appliquée aux atomes et molécules elle a été étendue aux particules quantiques
soumises à un champ extérieur. C’est notamment le cas des électrons libres dans un solide
conducteur de l'électricité. A partir du phénomène de diffusion l’influence d’une force
appliquée sur les particules en mouvement dans un système a été expliquée à partir du
modèle continu de Langevin [6].
1.1. La statistique de Maxwell-Boltzmann.
Dans un gaz constitué d’un grand nombre de particules indépendantes en théorie cinétique
la distribution des vitesses et celle de l’énergie associée obéissent à la loi proposée par
Maxwell vers 1850. En effet en présence d’un grand nombre de particules indiscernables la
loi de distribution P(x) peut être considérée comme continue et la densité de probabilité
d’une variable dite gaussienne est définie par la fonction suivante :
P(x) = 1/ σ 2π. exp-1/2 (x-x0/ σ) 2 (1)
Où x0 est la valeur moyenne de la variable aléatoire x et σ appelé l’écart type de la fonction.
C’est une courbe symétrique en cloche présentant un maximum pour la valeur optimale x0.
En effet la loi des grands nombres montre qu’un échantillonnage d’observations
discontinues de cette variable aléatoire converge vers une valeur moyenne (x1 +x2 + …xn /n)
en accord avec cette fonction continue (figure 1a). En outre le théorème de la limite centrale
permet de quantifier la probabilité de convergence vers la moyenne idéale. Cette approche
est basée sur l’hypothèse ergodique énoncée par Boltzmann affirmant que la moyenne sur
un ensemble de particules et celle effectuée dans le temps pour une seule particule sur des
temps très longs, sont identiques. L’évolution dynamique est alors représentée par les
valeurs statistiques du processus (valeur moyenne, écart quadratique) qui obéissent à des
lois simples et reproductibles quand on l’analyse à une échelle de temps appropriée [3].
Cependant l’hypothèse ergodique va apparaitre insuffisante pour des systèmes plus élaborés
ou situés loin d’un équilibre thermodynamique [7].
La distribution gaussienne apparait comme la distribution statistique de toute quantité
physique représentée par la somme d’un grand nombre de petites contributions
indépendantes. Elle a été largement employée notamment en l’étendant au comportement
d’un gaz réel où les particules voisines sont en interactions faibles. Ces particules peuvent
présenter un comportement quantique avec des niveaux énergétiques discrets : ceux sont
les statistiques dérivées de Fermi-Dirac et de Bose-Einstein, pour des particules quantiques
indiscernables obéissant ou pas au principe d’exclusion de Pauli. La statistique antérieure de
Planck donne également une expression dérivée quand le nombre de particules dans le
système ne se conserve pas.
1.2. Le phénomène de diffusion et l’équation de Langevin.
Le mouvement brownien de diffusion des particules dans un milieu fluide de densité voisine
est à la base de ce phénomène. C’est un processus aléatoire décrivant le trajet d’une
particule colloïdale en suspension dans un liquide et soumise à des collisions élastiques avec
les molécules voisines. Observé par Brown au début du XIX ième siècle, il a été interprété
grâce aux travaux d’Einstein et de Smoluchowski en 1905. Cette validation de l’hypothèse
atomique montre le rôle des fluctuations thermiques dans un processus de diffusion
massique. Il est explicité par le concept de marche au hasard de la particule considérée qui
est soumise à des chocs aléatoires. Un flux de particules qui varie proportionnellement à la
différence de concentration permet de calculer une constante de diffusion D. La solution est
une courbe de Gauss avec une valeur moyenne du déplacement et un écart quadratique
moyen ou variance défini comme le second moment de la variable x :
σ = xt2 - xt 2 = 2Dt (2)
Ce comportement proportionnel au temps a été ensuite vérifié expérimentalement par
Perrin en 1908 qui a suivi les déplacements d’un ensemble de petites particules sphériques
animées d’un mouvement brownien. Il a pu mesurer le nombre d’Avogadro grâce à
l’expression de D fournie par Einstein :
D = υ.kBT (3)
où υ est la mobilité de la particule à la température T et kB la constante de Boltzmann. Un
lien entre les descriptions microscopique et macroscopique (c’est la loi phénoménologique
de Fick) a ainsi été établi. En prenant un point de vue dynamique, la description numérique
d’une marche au hasard, fonction de la dimensionnalité de l’espace réel décrit le
phénomène (voir paragraphe 2.3). Il est relié à un processus de Markov défini comme une
succession d’évènement indépendants satisfaisant à l’hypothèse ergodique et à l’équation
dynamique de Fokker-Planck classique quand le temps d’observation est largement plus
grand que celui du phénomène observé [3].
L’équation de Langevin également proposée en 1908 décrit la vitesse d’une particule dans
un fluide visqueux soumise à une force aléatoire du point de vue mécanique [6]. La viscosité
engendre une force macroscopique de frottement qui dépend de la viscosité du fluide et des
chocs au hasard avec les molécules environnantes. Par ces interactions l’énergie du
mouvement est dissipée en chaleur ce qui engendre des fluctuations thermiques dans le
fluide environnant. La généralisation de cette approche permet de décrire différents
situations dynamiques, en particulier l’influence d’un potentiel périodique sur le mouvement
des particules et la définition des propriétés de transport sous l’action d’une force
extérieure. Deux types de situations en résultent [3], soit l’évolution temporelle d’un
processus diffusif (équation type Fokker-Planck), soit un état stationnaire indépendant du
temps et résultant d’une moyenne spatiale. Les relations linéaires d’Onsager, exprimant par
exemple les flux de chaleur et d’électricité, définissent alors les conductivités thermique et
électronique et les coefficients de diffusion associés.
1.3. La naissance de la thermodynamique statistique.
Boltzmann en 1872 relie la thermodynamique à la mécanique statistique par l’intermédiaire
du théorème H : il existe une grandeur H(t) en théorie cinétique des gaz qui varie au cours
du temps de façon monotone en relaxant vers l’état d’équilibre du système. Celui-ci est alors
caractérisé par la fonction entropie statistique qui mesure le désordre du système :
S = kB . Log Ω (4)
Où Ω représente le nombre total d’états microscopiques et équiprobables du système et kB
est la constante de Boltzmann permettant de retrouver la dimensionnalité physique de
l’entropie phénoménologique exprimée dans le deuxième principe d’évolution. Elle
complète l’approche de Maxwell qui avait fait le lien entre les énergies cinétiques des
particules et le premier principe de la thermodynamique ou principe de conservation de
l’énergie E.
Cette démarche s’appuie sur l’hypothèse ergodique posée par Boltzmann. Notons que le
changement de niveau de description présente une difficulté que nous ne traitons pas ici. La
fonction phénoménologique entropie possède un caractère irréversible symbolisé par la
flèche du temps qui n’est pas contenu dans les lois fondamentales de la mécanique
statistique, invariantes par rapport au temps (cf. le paradoxe de Loschmidt).
Ces résultats s’appliquent in extenso pour des systèmes physiques dits isolés, ne présentant
aucun échange avec l’extérieur. Dans les situations réelles il y a des échanges d’énergie et
même de matière avec l’environnement (systèmes fermés et ouverts) qui engendrent des
situations de non-équilibre. Ce passage du microscopique au macroscopique a été largement
développé par Gibbs à la même époque en utilisant le modèle des ensembles dans le cadre
de l’hypothèse ergodique et le concept d’espace des phases (combinaison de l’espace des
positions et de l’espace des moments). Il a défini les fonctions statistiques micro-canonique,
canonique et grand-canonique correspondant respectivement aux systèmes isolés, fermés et
ouverts. Proche de l’équilibre le comportement d’un gaz de particules en présence d’une
force ou champ extérieur a été décrit par l’équation de transport de Boltzmann qui permet
de démontrer le théorème H notamment. D’une manière plus générale le théorème de
fluctuation-dissipation [3] permet de relier l’intensité des fluctuations thermiques à
l’équilibre avec sa réponse linéaire à une force extérieure pour des situations proches de
l’équilibre (voir paragraphe 2.4). Enfin des situations plus loin de l’équilibre, en régime non-
linéaire dit dissipatif, sont caractérisées par la présence d’instabilités avec des points de
bifurcation pour une fonction dynamique représentative. Après passage par un point dit de
bifurcation elles engendrent une instabilité et des structures dissipatives qui peuvent
conduire par rupture de symétries, vers des nouvelles structures organisées spatio-
temporelles, et même au-delà vers des situations chaotiques déterministes [2]. Elles sont
décrites par un comportement dynamique spécifique dans l’espace des phases avec le
concept d’un attracteur qui borne le volume ou la surface accessible (voir encadré).
2. Les lois statistiques généralisées.
L’approche statistique classique consiste à ramener le phénomène examiné à une somme de
petites contributions indépendantes. Ce n’est pas toujours le cas mais la difficulté est
d’observer expérimentalement les variations microscopiques d’une grandeur physique
donnée. Ceci a entrainé une trop grande confiance des statisticiens pour utiliser la
distribution gaussienne [8]. Une revue historique sur l’évolution de la théorie des
probabilités et la généralisation de la loi de Maxwell-Gauss au cours du XX ème siècle
permet de la situer dans un contexte plus général [9].
Sur un plan plus concret l’exemple historique souvent cité vient de l’économie avec la
distribution statistique utilisée par Bachelier dès 1900 à propos des fluctuations de
spéculations financières. Ensuite l’économiste italien Pareto a étudié au début du XX ème
siècle la distribution des richesses dans son pays. Il a constaté que 20% des plus riches d’une
population détenaient 80% de la richesse totale. Cette situation inégalitaire n’est pas bien
représentée par une distribution gaussienne. Pareto a proposé une distribution plus réaliste
avec une loi en puissance qui permet de décrire des phénomènes présentant une invariance
d’échelle. C’est une relation du type y = a.xn où n est l’exposant déterminé par la pente de
la droite observée en coordonnées logarithmiques. Cet indicateur rend compte de la
présence de grands évènements qui ont peu de chance de se produire mais ont une
importance prépondérante. A partir des années 1930 plusieurs auteurs (Lévy, Feller,
Kolmogorov entre autres) ont reconsidéré le théorème de la limite centrale reposant sur
l’existence d’une évolution de la valeur quadratique moyenne qui peut être mise en défaut
[9]. Lévy a montré qu’il existe d’autres solutions mathématiques globales en introduisant des
fonctions continues de probabilité plus générales qu’il a défini comme des lois stables [4]. Il
remarqua que dans ces conditions la valeur moyenne et l’écart type ou variance, n’ont plus
forcément de sens. Nous allons en rappeler les résultats essentiels dans un cadre limité
permettant de classer les phénomènes physiques, biologiques ou encore économiques. Dans
ce contexte nous évoquerons les travaux ultérieurs de Mandelbrot qui a éclairé l’approche
de Lévy en particulier en introduisant les notions de géométrie fractale et d’autosimilarité
[10]. Il a également explicité ces différents comportements en les qualifiant de hasard sage
pour une loi gaussienne étroite et de hasard sauvage dans le cas contraire d’une fonction de
distribution bien plus large.
2.1. Rappels à propos des lois stables de Lévy.
Lévy a établi une fonction générale exprimant la densité de probabilité pour un système
soumis à des variables aléatoires sans contraintes spécifiques. Elle conduit à une famille de
lois de distributions continues et stables car pour deux variables indépendantes leur somme
ou leur combinaison linéaire conserve la même fonction [4,11]. Ces lois dépendent
essentiellement de deux paramètres, l’index de Lévy µ et un coefficient de symétrie. Nous
allons nous intéresser seulement aux fonctions de distributions symétriques à l’état
stationnaire qui présentent trois cas particuliers. Elles possèdent une forme générale de
courbes en cloche plus ou moins étroites, données sur la figure 1a. Il faut distinguer les cas
où µ est un entier, égal à 1 ou 2, ou pas :
• La distribution gaussienne ou normale est trouvée pour µ = 2 ; elle est déjà
donnée par l’équation (1).
• La distribution de Cauchy-Lorentz établie pour µ = 1. Il faut noter que Cauchy
avait été le premier à réaliser au milieu du XIX éme siècle qu’une autre
solution existait pour un ensemble de variables aléatoires :
P (x) = 1/π [a/ (x-x0)2 + a2] (5)
Où a est une constante ajustable et la valeur x0 de la variable situe le maximum de la
fonction.
C’est une loi de probabilité pathologique pour laquelle la loi des grands nombres ne
s’applique pas ainsi que le calcul de la moyenne et de la variance pour un ensemble
d’observations. Nous allons cependant voir que cette loi de distribution introduite
physiquement par Lorentz en optique [1] est expérimentalement souvent présente et
significative.
• La distribution de Lévy dans le cas général où µ n’est plus forcément un
entier. Une formule analytique explicite n’est pas donnée et il faut avoir
recours à des algorithmes. Comme nous l’avons indiqué c’est une loi de
distribution large avec un comportement en loi de puissance pour les ailes.
Une décroissance asymptotique du type suivant doit être observée:
P (x) = C(µ)/ x 1+µ pour x (6)
Où C(µ) est une constante calculable dépendante de l’index de Lévy.
C’est dans une représentation en coordonnées logarithmiques qu’une loi en puissance
permet de définir une pente qui est cet index de Lévy. En effet la loi de Gauss avec une
décroissance plus rapide et celle de Cauchy-Lorentz qui est moins rapide ne sont pas
linéarisées dans cette représentation (voir figure 1b).
Figure 1. a) Formes des lois symétriques pour différentes distributions statistiques centrées
sur zéro (x0 = 0) : gaussienne correspondant à la distribution de Maxwell- Boltzmann,
lorentzienne pour la distribution de Cauchy-Lorentz et de type Lévy à queue large pour une
valeur de l’indice µ égal à 3/2 (adapté de [4]). b) Comportement de ces lois en coordonnées
logarithmiques confirmant bien que leurs différences essentielles se situent sur les ailes
pour de grandes valeurs de x, où seule la loi de Lévy présente une région logarithmique
linéaire correspondant à une loi de puissance donnée par l’équation (6) avec une pente
égale à l’index µ choisi.
Remarque : Dans le cas où le paramètre de symétrie n’est pas nul, différentes fonctions de
distributions asymétriques sont obtenues. Ceux sont des lois de valeurs extrêmes qui
permettent d’estimer des situations de risque pour des évènements encore plus rares
relevant toujours d’un hasard sauvage. Plusieurs types de lois d’extremum généralisées ont
été développés en fonction de contraintes supplémentaires pour en rendre compte [8].
2.2. Caractéristiques des systèmes dynamiques.
Sur le plan expérimental c’est le processus discret d’une marche au hasard qui est examiné
en fonction de la variable temps. Différents comportements dynamiques ont été analysés
que nous allons résumer en nous référant aux différentes lois de distribution cinétiques
P(x,t) (fonction propagateur) de la densité de particules. La somme de tous les temps de
déplacements des sauts individuels détermine l’écart quadratique moyen d’une particule.
Elle peut s’exprimer par la relation suivante qui est une généralisation de l’équation de
diffusion d’Einstein:
σ = x2. t ν (7)
Où ν est un exposant lié à une statistique de Lévy ; différentes relations avec l’exposant µ
ont été établies en fonction des régimes de diffusion observés [12].
Cet exposant est égal à un dans le cas d’une diffusion normale (voir équation (2)). Dans le
cas contraire nous sommes en présence d’une diffusion anormale relevant d’une marche
aléatoire spécifique. Diverses situations ont été recensées que nous allons rappeler :
• ν c’est un comportement sous-diffusif correspondant à une marche de
Lévy avec éventuellement des pauses.
• ν comportement sur-diffusif qui peut être rapproché du modèle d’un vol
de Lévy.
• ν = 2 comportement spécifique appelé balistique que nous expliciterons.
• ν dans le cas d’un système dit turbulent ou chaotique (voir paragraphe
sur le comportement en hydrodynamique) ; c’est un régime super-balistique
qui suppose une vitesse des particules variables [11].
La différence de comportement dynamique est liée à la mobilité des particules comme
représenté schématiquement sur la figure 2 dans un référentiel espace-temps. Usuellement
deux modèles sont distingués : les marches de Lévy pour une vitesse finie des particules et le
vol de Lévy quand leur vitesse tend vers l’infini [11].
- Une marche de Lévy est une marche au hasard où le déplacement entre deux
collisions nécessite un intervalle de temps fini. La durée de vol pour une particule est
alors supposé proportionnelle à la longueur du vol (voir figure 2a). La vitesse est
supposée constante pour une application physique donnée (temps de vol et longueur
de saut reliés) mais elle peut être variable dans des modèles plus élaborés. Noter
qu’une variante est un modèle de marche alternant avec des pauses de durées
aléatoires qui obéissent à une loi de puissance (équation 6). Un régime de sous-
diffusion (ν
- Dans un vol de Lévy la particule se situe soit au départ soit à l’arrivée du saut qui peut
être très long et il n’y a pas d’intervalle de temps durant les sauts; La variance
associée à cette vitesse infinie est elle-même infinie : il n’y a plus d’écart quadratique
moyen calculable. Comme l’a montré Mandelbrot [10] c’est un processus auto-
similaire présentant une dimension fractale dynamique (df) reliée à un index de Lévy
non-entier. Le temps n’est pris en compte que pendant des pauses (figure 2b). Le
temps de piégeage peut présenter alors une longue queue de distribution suivant
une loi en puissance du type donnée par l’équation 6 qui va conditionner le
processus de diffusion. Pour pallier à cet inconvénient de variance infinie dans un
modèle de vol de Lévy une approche a été de donner une vitesse élevée mais finie
pour des particules de haute mobilité. Tronquer la queue de distribution permet
également de retrouver une diffusion normale, ce qui est un procédé de coupure
arbitraire car éliminant les situations très rares mais significatives [11].
-
Figure 2. Modèle de marche au hasard d’une particule dans un référentiel espace-temps.
a) A droite c’est une marche de Lévy, la particule se déplace avec une vitesse supposée
constante v durant un intervalle de temps variable puis à un point donné change de
direction en gardant la même vitesse ; elle se déplace dans un cône balistique tel
que x =+/- v.t (traits pointillés) qui définit la fonction propagateur P(x,t) tronquée.
b) A gauche c’est le cas d’un vol de Lévy où la particule effectue des sauts instantanés
dans le temps (flèches courbes) alternant avec des pauses où elle se trouve immobile
(segments droits). Les sauts et les pauses sont des variables indépendantes et la
probabilité de distribution globale est représentée par une fonction propagateur
P(x,t). (Schémas adaptés de [11]).
- Le cas limite est un régime balistique où la trajectoire n’est plus modifiée par des
collisions internes comme dans un mouvement brownien mais seulement par les
limites géométriques du système .Tel est le cas pour un gaz raréfié dans un enclos fini
où les particules se trouvent dans un régime moléculaire de Knudsen. Sous ces
conditions dites balistiques, quand le processus de diffusion peut être contrôlé par
une contrainte géométrique la loi de distribution opérationnelle est celle de Cauchy-
Lorentz [11]. Nous aurons l’occasion d’y revenir notamment lors de l’examen des
propriétés physiques de nanomatériaux. Enfin ce régime peut devenir super-
balistique quand la vitesse des particules n’est plus une constante comme nous le
verrons pour des situations hydrodynamiques particulières [14].
Le point essentiel associé à ces différents régimes est celui de la validité de l’hypothèse
ergodique énoncée par Boltzmann. En effet les progrès en nanotechnologies ont permis de
développer des méthodes expérimentales permettant de suivre les trajectoires d’une seule
particule et d’effectuer une moyenne dans le temps. Ainsi la trajectoire x d’une particule
peut être suivie pendant une durée T et l’écart quadratique temporel est égal à [15] :
δx2 = 1/ T- τ
τ) – x(t)]2. dt (8)
où τ est un décalage lié à la mesure (τ . Cette valeur est à comparer avec la moyenne
sur un ensemble de particules à un instant donné (équation 7). Pour les systèmes
markoviens obéissant à la statistique de Maxwell-Boltzmann les deux moyennes sont égales.
Ce qui n’est plus le cas pour un ensemble statistique qui suit une distribution de Lévy. Il a été
démontré que la rupture du comportement ergodique est lié la présence d’une loi en
puissance sur les ailes de la fonction de distribution [16]. Ce comportement est plus ou
moins général, présent notamment en régime sous-diffusif [15]. Comme nous le verrons un
cas particulier est celui des chaines de Markov présentant un effet mémoire lié à un
vieillissement ou à un obstacle dans un système physique ou biologique.
2.3. Les modèles numériques de marches au hasard.
Pour approfondir ces situations des simulations numériques, en général unidimensionnelles
ou bidimensionnelles, ont été développées en liaison avec des situations expérimentales qui
dépendent de la dimensionnalité physique du problème. Deux grands types de modèles ont
été proposés.
Tout d’abord l’image d’une particule empruntant un chemin aléatoire est représenté par un
mouvement discret le long des arêtes d’un réseau (carré ou hexagonal) ; il modélise le
mouvement brownien [17]. Cette marche au hasard après un grand nombre n de pas sera
caractérisée par une distance moyenne à partir de l’origine égale à correspondant à la
variance dans la formule d’Einstein (voir équation 2). Elle rend compte d’un mouvement
brownien classique mais pour simuler certaines situations physiques une condition a été
ajoutée. La particule ne peut repasser au même nœud du réseau et initie une trajectoire
auto-évitante ou du premier passage. Dans ce cas le système ne relève plus d’un processus
de Markov car il tient compte du passé de la particule : c’est un effet mémoire. Ce processus
largement développé a été introduit par Flory il y a un demi-siècle pour rendre compte de la
conformation d’un polymère dans un solvant [13]. L’objectif de Flory était de déterminer la
distance moyenne entre le début et l’extrémité d’une chaine macromoléculaire. Dans ce cas
la distance moyenne associée à ce processus est supérieure à , résultat qui est précisé par
des modèles de simulations numériques [17]. Une généralisation de la trajectoire d’une
particule dans un milieu hétérogène a été examinée grâce à la technique de calcul Monte
Carlo [18]. La notion de position inaccessible après un passage, ou la présence d’obstacles
fixes ou encore d’une possible fixation chimique labile introduisant un temps de rétention
variable, introduit la diffusion d’une particule entravée. Un comportement sous-diffusif est
attendu, fonction de la concentration en obstacles quand on se rapproche du seuil de
percolation dans un réseau discret donné (la constante de diffusion s’annule au seuil de
percolation suivant une loi de puissance [13]). Ces situations se retrouvent dans les
problèmes relatifs à des macromolécules, des interfaces évolutives également et dans les
milieux physiques désordonnés ou encombrés présents en biophysique, ce que nous
verrons ultérieurement.
Une généralisation en géométrie fractale du mouvement brownien entraine des sauts auto-
similaires. Un exemple de simulation est donné sur la figure 3 montrant la présence
d’agrégats séparés par de longs sauts qui peuvent expliquer des dynamiques pouvant aller
jusqu’à une situation turbulente ou chaotique [14].
Figure 3. Simulation numérique bidimensionnelle d’une marche au hasard où la longueur du
saut le plus long est limité par la taille du système ; le processus aléatoire est auto-similaire
ou fractal car il se reproduit à différentes échelles (cf. MIT open course ware).
Pour aller au-delà du mouvement brownien d’autres types de modèle numérique ont été
développés avec des sauts de longueur quelconque qui ne prennent en compte que les
premiers passages sur les nœuds d’un réseau périodique. Ainsi dans le cadre d’une marche
aléatoire continue dans le temps, le modèle CTRW (« Continuous Time Random Walk »)
associe des sauts stochastiques de longueur aléatoire et des pauses variables durant un
temps t défini par l’équation 6 (voir figure 2a). Introduit par Montroll et Weiss en 1965 [19]
c’est un modèle dynamique général de marche de Lévy pour rendre compte de la
compétition entre les statistiques du temps de piégeage et de longueur des sauts. Si le
premier l’emporte on observera une sous-diffusion et si c’est le second une sur-diffusion.
Cependant un équilibre fortuit entre les deux peut conduire à une diffusion apparente qui
apparait normale pour l’expérimentateur [20].
Alternativement des travaux théoriques se sont intéressés à une équation de Langevin
généralisée notamment fractionnaire [6]. Dans un cadre plus général l’équation de Fokker-
Planck est une équation dynamique aux dérivées partielles linéaires applicable pour un
système de Markov [11]. Une approche non-linéaire décrivant une équation cinétique aux
dérivées fractionnaires a été développé pour des systèmes où les particules suivent une loi
générale de Lévy [21]. Cette équation de diffusion fractale associée à l’index de Lévy peut
être généralisée pour une propriété de transport en ajoutant un potentiel périodique ou un
champ extérieur. C’est la notion de temps fractal qui a été introduite dans cette méthode
qui est à comparer avec le modèle CTRW. Pour rendre compte des expériences nous
utiliserons ce concept de marche au hasard plutôt que celui d’équation différentielle
stochastique [22].
2.4. Fluctuations et corrélations d’une grandeur physique.
C’est un rappel concernant les principaux acquis obtenus en physique statistique hors
équilibre thermodynamique, en relation avec les résultats expérimentaux présentés par la
suite. Les systèmes hors équilibre sont caractérisés par une dissipation énergétique sous
forme de chaleur, associée aux échanges avec l’environnement (voir modèle de Langevin).
Comme nous l’avons vu les relations dites de fluctuation-dissipation permettent de relier les
fluctuations spontanées à l’équilibre avec des processus se produisant en dehors de
l’équilibre comme dans le cas de l’énergie [3,23]. Rappelons que les fluctuations d’une
grandeur physique dynamique sont associées avec un écart à la valeur d’équilibre et que
l’apparition des fluctuations usuelles présente alors un caractère régressif. Elles sont
modifiées par des effets de corrélations à courte ou longue distance dues notamment à un
désordre structural ou des contraintes géométriques particulières [13]. Dans le cas de
modèles géométriques la longueur lk parcourue par une particule après k sauts devient en
passant de k à n sauts aléatoires égale à lk+n. Une fonction d’autocorrélation de position
permet de définir la corrélation dans un parcours géométrique ou celle généralisée pour un
signal physique; pour un système dynamique une relation équivalente sur les vitesses est
utilisée. Elle est ainsi définie à l’état stationnaire:
Cn = lk . lk+n - lk lk+n (8)
La signification de la fonction de corrélation qui doit disparaitre pour un temps infini, est
révélée par le théorème de Khintchine qui explicite cette condition dans le cadre d’un
processus ergodique. Elle peut être étendue sous certaines conditions au cas des vols de
Lévy qui présentent un second moment infini et ne satisfont plus à l’hypothèse ergodique
[24].
Cependant si cette fonction dépend du temps d’observation elle peut être liée à un
phénomène de vieillissement (« aging process ») dans certains systèmes métastables (par
exemple des verres) qui présentent une évolution plus longue que les temps
caractéristiques de relaxation et d’observation. C’est alors une situation non ergodique qui
est présente [25]. Elle sera analysée après avoir recensé les principales situations
expérimentales en particulier des solides à l’état vitreux et en biophysique (voir paragraphe
6.4)
Les corrélations géométriques sont liées à la taille caractéristique du système ou bien à la
présence d’une structure désordonnée répétitive impliquant un effet mémoire à longue
distance. A courte distance Cn converge et ne change pas leur comportement gaussien
permettant de définir un écart quadratique moyen et une valeur moyenne xn. A longue
distance Cn décroit comme 1/n ou un peu plus lentement. Le comportement de xn est alors
modifié et le processus de diffusion est amplifié. Quand les corrélations tendent vers un
comportement optimal, toutes les variables ln tendent à devenir égales, le comportement
est alors balistique et sa variance n’est plus définie.
Pour expliciter l’importance des fluctuations et le rôle des corrélations plusieurs points sont
à rappeler:
- L’origine des fluctuations, thermique et quantique : les fluctuations thermiques
présentes dans les expériences de diffusion d’une particule sont reliées à la
probabilité de la trouver dans un état microscopique donné pour un système fermé.
C’est la fonction de partition de Gibbs qui permet d’exprimer l’énergie libre du
système et son comportement spécifique au voisinage de l’équilibre. Pour les
fluctuations d’origine quantique les fluctuations de position sont reliées aux
fluctuations d’impulsion par le principe d’incertitude d’Heisenberg. Leur description
globale s’effectue alors dans l’espace des phases qui décrit la dynamique de la
particule considérée. Elles sont effectives à très basse température et dans les nano-
systèmes présentés ci-dessous.
- Le théorème de fluctuation-dissipation [23] : il permet de relier l’intensité des
fluctuations thermiques au voisinage de l’équilibre avec sa réponse à un potentiel ou
un champ extérieur. L’énergie apportée par cette force sera dissipée en chaleur au
niveau microscopique et le comportement d’un système hors d’équilibre est obtenu
en examinant ses propriétés à l’état stationnaire. Cette problématique a été
développée par Onsager dans les années 1930 en établissant des relations linéaires
entre forces et flux pour les propriétés de transport proches de l’équilibre. Ce
principe de régression est valable pour un système stationnaire qui relève de la
statistique de Maxwell-Boltzmann [3]. Cette approche a été étendue à des situations
loin de l’équilibre en régime non-linéaire quand les fluctuations ne sont plus
forcément régressives : le théorème de fluctuation-dissipation doit être alors
reconsidéré [25].
- Ensuite la relation généralisée de Green-Kubo : elle exprime le lien entre un
coefficient de diffusion macroscopique et les corrélations de vitesse entre particules
dans ce milieu proche de l’équilibre thermodynamique [3]. A l’état stationnaire la
fonction d’autocorrélation ne dépend pas du temps mais ce n’est plus vrai pour un
système vieillissant qui nécessite une généralisation de la formule de Green-Kubo.
Ceci est en relation avec le défaut d’hypothèse ergodique démontré par le théorème
de Khintchine dans des systèmes plus compliqués [26]. Ils présentent une queue de
loi de distribution en puissance associée à un vieillissement pour les systèmes sur-
diffusifs [27].
- Le théorème de Nyquist : c’est une généralisation pour l’énergie électromagnétique
du théorème de fluctuation-dissipation, formalisé notamment par Callen et Welton
pour les fluctuations de voltage [28]. L’analyse s’effectue par une fonction de
transfert comme une transformée de type Fourier-Laplace permettant une analyse
en fréquence. La corrélation d’un signal électrique ou magnétique permet de
détecter des irrégularités dans un signal périodique perturbé par un bruit. Il exprime
l’énergie des fluctuations de tension par unité de bande de fréquence ou bien les
fluctuations d’aimantation induisant des variations de flux magnétique.
- Le théorème de Wiener-Khintchine : dans un état stationnaire, la transformée de
Fourier de la fonction d’autocorrélation d’un signal physique est égale à sa densité
spectrale en puissance (définie comme le carré du module de la transformée de
Fourier divisé par la largeur de la bande spectrale explorée). Pour un circuit
électrique c’est une densité spectrale énergétique et dans le cas magnétique une
densité spectrale d’aimantation qu’il faut considérer. La densité spectrale de
puissance est inversement proportionnelle à la fréquence f du bruit électrique. C’est
une loi de puissance qui est l’expression d’une relation générale des bruits associés à
plusieurs signaux indépendants:
S (f) 1/ f σ (9)
Dans une résistance électrique la circulation du courant électrique engendre des fluctuations
de voltage et un bruit électrique en 1/f (bruit blanc pour σ = 0)). Proche de l’équilibre c’est le
bruit de Johnson associé au phénomène de fluctuation-dissipation classique. Dans des
situations plus compliquées différentes sources de bruits existent qui jouent sur la valeur
non nulle de l’exposant σ correspondant à des bruits de couleur. Cet exposant est mesuré
variable autour de l’unité, usuellement entre 0.5 et 1.5 ; il renseigne sur le type de fonction
de distribution sous-jacente qui peut être de type Lévy [29]. Ainsi dans un bruit électronique
normal la densité spectrale est inversement proportionnelle de la fréquence (σ = 1) ce qui
n’est plus vrai pour des bruits de Lévy, en présence d’inhomogénéités et de corrélations à
longue portée dans le milieu. L’analyse stochastique sur plusieurs ordres de grandeurs
permet de tester différents mécanismes de bruits montrant une origine commune pour
l’exposant du spectre de puissance et les lois de Lévy sans qu’il n’existe une relation
analytique générale entre les deux coefficients µ et σ. De fait il apparait une corrélation
entre la valeur du coefficient σ et le degré d’homogénéité du milieu parcouru par une
particule [30].
2.5. Comportement des nano-systèmes :
Rappelons qu’un système est dit mésoscopique quand la taille de l’objet, dans au moins une
direction de l’espace est inférieure ou au plus de l’ordre de grandeur de la longueur de
cohérence d’une onde quantique associée à la particule (exemples : puits et fils quantiques,
super-réseaux). Le nombre de particules, de petite dimension par rapport au système et en
nombre fini, entraine une quantification des niveaux d’énergie présents. Ils sont caractérisés
par des fluctuations amplifiées présentant des effets spécifiques en particulier électroniques
[31]. Dans un tel système des fluctuations universelles (thermiques et quantiques) de
conductance sont liées à des perturbations sur la cohérence de la fonction d’onde associée.
Ce phénomène est lié à une diffusion élastique des particules dépendante d’un désordre de
positions atomiques dans un conducteur ou bien influencé par l’application simultanée d’un
champ magnétique. Il entraine un effet de localisation, dite forte découvert par Anderson
(voir paragraphe 5.1), ou bien faible d’origine purement quantique. Dans ce dernier cas une
diffusion arrière, par interférence constructive de l’onde associée, entraine une faible
diminution de conductivité par rapport au processus classique de Drude.
Plus généralement le transport quantique dans des nanostructures devient balistique, les
collisions ne surviennent qu’au bord du nano-objet. Il est alors affecté différemment par des
champs extérieurs appliqués et les propriétés de transport électronique reflète ce