-
Philosophia Scienti11-2 (2007)Varia
................................................................................................................................................................................................................................................................................................
Pierre Uzan
Physique, information statistique etcomplexit
algorithmique................................................................................................................................................................................................................................................................................................
AvertissementLe contenu de ce site relve de la lgislation
franaise sur la proprit intellectuelle et est la proprit exclusive
del'diteur.Les uvres figurant sur ce site peuvent tre consultes et
reproduites sur un support papier ou numrique sousrserve qu'elles
soient strictement rserves un usage soit personnel, soit
scientifique ou pdagogique excluanttoute exploitation commerciale.
La reproduction devra obligatoirement mentionner l'diteur, le nom
de la revue,l'auteur et la rfrence du document.Toute autre
reproduction est interdite sauf accord pralable de l'diteur, en
dehors des cas prvus par la lgislationen vigueur en France.
Revues.org est un portail de revues en sciences humaines et
sociales dvelopp par le Clo, Centre pour l'ditionlectronique
ouverte (CNRS, EHESS, UP, UAPV).
................................................................................................................................................................................................................................................................................................
Rfrence lectroniquePierre Uzan, Physique, information
statistique et complexit algorithmique, PhilosophiaScienti [En
ligne], 11-2|2007, mis en ligne le 27 juin 2011, consult le 14 juin
2015. URL: http://philosophiascientiae.revues.org/347; DOI:
10.4000/philosophiascientiae.347
diteur : Universit Nancy
2http://philosophiascientiae.revues.orghttp://www.revues.org
Document accessible en ligne sur
:http://philosophiascientiae.revues.org/347Document gnr
automatiquement le 14 juin 2015. La pagination ne correspond pas la
pagination de l'ditionpapier.Tous droits rservs
-
Physique, information statistique et complexit algorithmique
2
Philosophia Scienti, 11-2 | 2007
Pierre Uzan
Physique, information statistique etcomplexit
algorithmiquePagination de ldition papier : p. 121-162
Introduction: Comment parler dinformation en physique?1 Le
concept dinformation se trouve au cur de la physique actuelle. En
physique quantique, le
concept dinformation constitue le fondement mme de
linterprtation minimale incontestede la notion de vecteur dtat
comme outil prdictif contextuel. En effet, selon cetteinterprtation
qui a t explore en profondeur par M. Bitbol, linformation dont
disposelobservateur sur une situation exprimentale et qui permet le
calcul des prdictions estencode dans le vecteur dtat (ou plus
gnralement loprateur densit) reprsentatif de saprparation [Bitbol
1996].
2 En mcanique statistique, classique ou quantique, le concept
dinformation sest introduitlorsquon a cherch justifier la loi de
croissance monotone de lentropie dun systme isol.Certains
physiciens ont mme t jusqu interprter lentropie thermodynamique en
termede manque dinformation, comme une mesure de notre ignorance de
ltat microscopiquedu systme. Selon ce point de vue, qui a t
introduit et dvelopp par Szillard, Shannon,Brillouin [Szillard
1929] [Shannon et Weaver 1949] [Brillouin 1956] et dvelopp de
faonsystmatique par Jaynes et, plus rcemment, par Balian [Jaynes
1957] [Balian 1982 ;2005], le second principe de la thermodynamique
ne modliserait que le processus de pertedinformation corrlatif de
lvolution dun systme vers son tat dquilibre.
3 Plus gnralement, les interprtations informationnelles de la
physique, voire les tentatives dereconstruction de la physique dun
point de vue informationnel, ne cessent de se dvelopperet savrent
prometteuses, comme nous le montrent plusieurs travaux rcents
traitant delinformation quantique [Nielsen 1998] [Timpson 2004]
[Grinbaum 2004].
4 Cependant, si la place du concept dinformation en physique
semble pleinement acquise,cest la manire dont ce concept est dfini
et utilis qui pose problme. En effet, le conceptdinformation qui a
t adopt en mcanique statistique depuis les travaux de Jaynes
[Jaynes1957] renvoie ce que connat ou ce que peut connatre
lobservateur. Il sagit dun conceptdinformation-connaissance formul
en terme dinformation (ou dentropie) statistique, cedernier concept
tant issu de la thorie de la communication de Shannon et Weaver
[Shannon& Weaver 1949]. Le concept dinformation statistique a,
il est vrai, permis de dvelopperune interprtation cohrente de la
thermodynamique en fournissant une justification de ladfinition de
lentropie thermodynamique introduite par Boltzmann et Gibbs en
mcaniquestatistique. Son succs semble dailleurs tre pleinement
confirm par la fcondit du postulatdentropie statistique maximale
permettant de calculer les distributions dquilibre dunsystme
thermodynamique. Ce principe stipule que parmi toutes les
distributions statistiquescompatibles avec les donnes
exprimentales, on doit reprsenter le macro-tat du systme parcelle
qui correspond la plus grande valeur de lentropie
statistiquecest--dire par cellequi, tout en tant compatible avec
les contraintes macroscopiques, nintroduit aucune
autreinformation-connaissance arbitraire [Jaynes 1957] [Balian
1982; 2005].
5 Mais, y regarder de prs, les succs de la mcanique statistique
ne doivent rien cettesur-interprtation subjectiviste de la notion
dentropie thermodynamique. Par exemple,de nombreuses prsentations
de la mcanique statistique, comme celles de Reiff, deHakim ou de
Cou-lon et Moreau [Reiff 1965] [Hakim 1996] [Coulon & Moreau
2000],nous montrent que la dfinition statistique de lentropie
thermodynamique dun systmephysique donne par Boltzmann, en terme de
micro-tats accessibles, cest--dire compatiblesavec les contraintes
macroscopiques, ne ncessite en rien dtre identifie un
manquedinformation-connaissance de ltat microscopique de ce systme.
Cette dfinition nerequiert a priori aucune interprtation
subjectiviste des (densits de) probabilits quelle
-
Physique, information statistique et complexit algorithmique
3
Philosophia Scienti, 11-2 | 2007
utilise. Ces dernires peuvent toujours, aprs Boltzmann, tre
penses comme des rapportsde nombre de configuration physiques
compatibles avec les contraintes macroscopiques.Corrlativement, la
recherche des distributions dquilibre ne ncessite en rien de se
rfrer ce que lon connat (ou ce que lon pourrait connatre) ou pas de
ltat microscopiquedun systme physique puisque celles-ci peuvent tre
calcules partir dun dcompte desconfigurations microscopiques
physiques accessibles (voir, par exemple, [Coulon & Moreau2000
2.3.2]). Par consquent, sil ny a, a priori, aucune raison pour
identifier lentropiethermodynamique dun systme physique avec un
manque dinformation-connaissance de sontat microscopique, cest bien
lide suggre par Boltzmann selon laquelle elle constitue unemesure
de son organisation intrinsque (de son dsordre molculaire ) quil
nous fautprivilgier. C est cette ide qui sera soutenue ici.
6 En outre, linterprtation subjectiviste de la notion dentropie
thermodynamique sembledboucher sur une impasse conceptuelle : la
suppose quivalence entre entropiethermodynamique et manque
dinformation-connaissance, qui mne lide de convertibilitentre
nguentropie et information-connaissance, permet de soutenir celle
dun cot entro-pique de lacquisition dinformation-connaissance
[Szillard 1929] [Bril-louin 1956] [Costade Beauregard 1963]. Or,
cette dernire ide, qui a t propose comme solution au clbreparadoxe
du dmon de Maxwell, est aujourdhui fortement remise en question. Ce
dbatcrucial sera rapport brivement dans la sectionIII.1 partir des
textes rassembls par Leff etRex [Leff & Rex 2003] et de ses
dveloppements plus rcents dus Norton [Norton 2005],Bennett [Bennett
2003] et Shenker [Shenker 2000].
7 Enfin, dun point de vue plus technique (sectionIII.2),
lutilisation de la notion statistiquedinformation en physique
quantique rencontre trs vite dimportantes limites. Il sagit dj desa
rfrence problmatique une notion de mesure qui en fait une grandeur
relative certainesobservables particulires. Mais surtout, par le
fait que linformation statistique associe untat quantique nvalue
que sa dviation par rapport la puret, elle est incapable de
donnerun sens et, a fortiori, dvaluer linformation encode dans un
tat pur alors quune tellevaluation savre tout fait essentielle pour
le dveloppement des thories de linformationquantique.
8 Cet article se propose donc, dans un premier temps, de mettre
en vidence les limites delutilisation de la notion statistique
dinformation en physique. Pour cela, nous commenceronspar analyser
la faon dont sest introduit en physique le concept
dinformation-connaissance(section I), et, plus prcisment, celui
dinformation statistique (section II), avant demettre en vidence
ses limites dordre conceptuelle et technique (section III). Puis,
dansun deuxime temps, nous montrerons, partir de la section IV,
comment la notion decomplexit algorithmique, introduite par
Solomonoff, Kolmogorov et Chaitin [Solomonoff1964] [Kolmogorov
1965] [Chaitin 1977], permet de surmonter ces limitations en
proposantune dfinition structurelle ou organisationnelle de l
information . Une telle notiondinformation est, en effet, dgage de
tout subjectivisme excessif puisque quelle nvalue pasla
connaissance ou le manque de connaissance de lobservateur
concernant ltat dun systmephysique mais, mme si cest une certaine
prcision prs (comme cest en fait le cas pourtoute grandeur
physique), son organisation intrinsque. Comme nous le prciserons
dans lessectionsV.2 et VI partir des recherches de Zurek et Caves
[Zurek 1989] [Caves 1990], ellepermet de proposer une interprtation
structurelle de la notion dentropie thermodynamique.Enfin, elle
peut tre utilise de faon satisfaisante pour valuer le contenu
informationnel duntat quantique pur, ce que ne peut faire la notion
statistique dinformationnotons quelapplication de la thorie de la
complexit algorithmique au domaine quantique, qui requiertdes
prcisions conceptuelles et techniques supplmentaires, sera examine
part, dans lasectionVI, partir des recherches rcentes de Vitnyi,
Berthiaume et al., Gcs, Mora et Briegel[Vitnyi 2001] [Gcs 2001]
[Berthiaume et al. 2000] [Mora and Briegel 2004].
9 Lintroduction de cette notion structurelle dinformation en
physique permettrait doncdasseoir sur des bases plus saines et plus
fcondes la direction de recherche actuelle qui lie defaon troite
physique et information, tant dans le domaine de la physique
statistique (classiqueet quantique) que celui de la thorie de
linformation quantique. Ces dveloppements
-
Physique, information statistique et complexit algorithmique
4
Philosophia Scienti, 11-2 | 2007
pourraient, selon nous, constituer les prmisses dune vritable
thermodynamique delinformation base sur le concept dinformation
structurelle dont la mesure nous est donneen terme de complexit
algorithmique.
I. Le second principe de la thermodynamique et sesinterprtations
dans le cadre de la mcanique statistique
10 La relation entre physique et information semble stre noue
lorsqu on a essay dinterprterle second principe de la
thermodynamique dans le cadre de la mcanique statistique.
11 Le second principe de la thermodynamique a une origine
purement phnomnologiquepuisquil a t formul, au XIXe sicle, partir
de lobservation du fonctionnement desmachines thermiques. Ses
premiers noncs, relatifs au domaine spcifiquement thermique,sont
dus Clausius (la chaleur ne passe pas spontanment dun corps froid
sur un corpschaud), Thomson (un systme en contact avec une seule
source de chaleur ne peut, aucours dun cycle, que recevoir du
travail et fournir de la chaleur) ou Carnot (si une machinefournit
du travail au cours dun cycle, elle change ncessairement de la
chaleur avec deuxsources de tempratures diffrentes). Ces noncs sont
quivalents et peuvent tre drivesdun nonc plus gnral1, de type
axiomatique, qui stipule que:
12 Pour tout systme thermodynamique, ouvert ou ferm, il est
possible de dfinir une fonctiondtat S, appele entropie 2, qui
vrifie les proprits suivantes : S est une grandeurextensive, et sa
variation lors dune transformation quelconque sexprime sous la
forme dunesomme de deux termes:
S=Se+Si,
o Se est un terme algbrique d aux changes de chaleur et de
matire avec le milieuextrieur. Pour un systme ferm recevant une
quantit de chaleur Q la temprature Tconstante, Se=Q /T, alors que
Si rsulte des modifications internes du systme associes des
phnomnes irrversibles.
13 On postule alors que Si>0, en affirmant que lirrversibilit
interne est source dentropie.14 Par consquent, selon le second
principe de la thermodynamique, lentropie dun systme
isol ne peut quaugmenter puisque dans ce cas Q=0 alors que
Si>0. Ltat dquilibrethermodynamique sera celui pour lequel S est
maximale, compte tenu des contraintes imposesau systme.
15 Malheureusement, la notion dentropie thermodynamique ne peut
trouver dinterprtation dansle cadre strict de la mcanique
Hamiltonienne. En effet, Henri Poincar a montr quil nexisteaucune
fonction S(qj, pi, t) des coordonnes gnralises qj et pi du point
reprsentatif deltat dun systme dans lespace des phases et du
paramtre temps t qui puisse interprterla notion dentropie
thermodynamique. Plus exactement, lvolution thermodynamique
dunsystme physique, caractrise par lexistence dune telle fonction
monotone croissante (avect), est incompatible avec son volution
mcanique qui est rgie par les quations de Hamilton-Jacobi3 [Poincar
1889]. Poincar a tabli ce rsultat partir des lois Hamiltoniennes et
deconsidrations tout fait gnrales sur les dveloppements en srie
entire de lnergie E(qj,pi, t) et de lhypothtique fonction entropie
S(qj, pi, t) et sans utiliser lobjection derversibilit de Loschmidt
qui traduit linvariance temporelle des lois de la mcanique.
16 On pourrait croire, comme il est souvent dit et crit un peu
rapidement, que lirrversibilitthermodynamique peut alors tre
explique par la seule utilisation de la mcanique statistiquequi
procde dune description probabiliste des systmes physiques de
grande taille tablissantun lien entre les grandeurs macroscopiques
mesurables et les valeurs moyennes des propritsde ses constituants
microscopiques. Cependant, comme le rappellent les
dveloppementsci-dessous, si une interprtation satisfaisante des
phnomnes thermodynamiques ncessiteeffectivement, cause de la taille
macroscopique des systmes physiques considrs,lutilisation de la
mcanique statistique, cest toujours par lintroduction
dhypothsesposant au dpart de la dmonstration lasymtrie quil faut
tablir et, en outre, au prixdapproximations, que lirrversibilit
trouve une justification.4
-
Physique, information statistique et complexit algorithmique
5
Philosophia Scienti, 11-2 | 2007
1.1. Lhypothse du chaos molculaire [Boltzmann 1867, 1872]17
Historiquement, les premires tentatives pour tablir un pont entre
mcanique statistique
et thermodynamique sont dues Boltzmann. Pour modliser lvolution
dun systme Nparticules, Boltzmann utilise des fonctions de
rpartition rduites p(p, q, t), o p et q sontles vecteurs quantit de
mouvement et position des constituants du gaz, dans lespace une
particule o lensemble de N particules est reprsent par un nuage de
N points 6coordonnes (trois despace et trois de quantit de
mouvement). Cest--dire que le nombre:
(p, q, t)d3pd3q,
est le nombre moyen de particules se trouvant, linstant t, dans
le volume lmentaire d3qcentr autour du point q et qui possdent la
quantit de mouvement p d3p prs.
18 Cest pour valuer le terme de collision (collisions supposes
binaires) entre les molculesdun gaz parfait, suppos isol et
homogne, que Boltzmann a introduit l hypothse duchaos molculaire.
Cette hypothse, que Boltzmann justifie par lexistence de
perturbationsextrieures (le systme ne serait donc pas vraiment
isol), postule de faon vidente uneasymtrie temporelle [Boltzmann,
in Brush 1966]:
(CM) Les molcules ne sont pas corrles avant dentrer en
collisionalors quelles le sont justeaprs.
19 Formellement, lhypothse (CM) implique lindpendance des
nombres de molculessusceptibles dentrer en collision dans un
certain volume linstant t et se traduit parla destruction rapide
des relations de phase entre tats. Lvolution macroscopique estalors
modlise par un processus stochastique (description en termes de
probabilits),Markovien (les probabilits de transitions ne dpendent
pas des tats microscopiques passs) etstationnaire (par linvariance
des quations de la mcanique par translation temporelle). Cestg rce
ltablissement de cette quation cintique approche que Boltzmann peut
montrerquune certaine fonctionnelle, appele H (et que nous nommons
HBoitzmann pour la distinguerde celle dfinie par Gibbs
ci-aprs):
est monotone dcroissante jusqu ltat dquilibre thermodynamique,
et donc que lagrandeur:
SBoltzmann=kBHBoltzmann,
o kB est la constante de Boltzmann, peut interprter la notion
dentropie thermodynamique.Notons que cette dernire fonctionnelle
entropie scrit, selon la clbre formule due Boltzmann,
SBoltzmann= kB ln ,
o est le nombre de configurations possibles ou dtats physiques
accessibles, dans lecas dun gaz parfait lquilibre (et sous
lhypothse dquiprobabilit des tats accessibles).
I.2. Lhypothse des phases alatoires [Pauli 1928]20 En physique
quantique, von Neumann [von Neumann 1955] a dfini lentropie dun
oprateur
densit D par:
SVN[D] =kBTrD ln D. (1)
21 Lentropie quantique SVN[D], qui peut tre vue comme une
gnralisation de lentropiedfinie par Gibbs en mcanique statistique
classique (voir ci-aprs), reste constante si Dsuit une volution
Hamilto-nienne (quation de Liouville-von Neumann). Cest aussi grce
lutilisation dune approximation (ici, lhypothse des phases
alatoires) que la questionde linterprtation mcanique de
lirrversibilit thermodynamique a t rsolue par Paulidans le cadre
quantique.
-
Physique, information statistique et complexit algorithmique
6
Philosophia Scienti, 11-2 | 2007
22 Lhypothse des phases alatoires propose par Pauli [Pauli 1928]
peut tre considrecomme la rplique quantique de lhypothse du chaos
molculaire de Boltzmann. Seloncette hypothse, qui est justifie par
lexistence de perturbations extrieures incontrlablessubies par le
systme, les relations de phase entre ses micro-tats possibles sont
rparties defaon alatoire et sont alors trs rapidement dtruites, en
des temps trs petits lchelle destemps dvolution macroscopique.
Cette hypothse permet de substituer loprateur densitD exact ,
soumis lvolution Hamiltonienne (quation de Liouville-von
Neumann),un oprateur densit approch Ddiag pour lequel les termes
non-diagonaux de la matricereprsentant D dans une certaine base (de
relevance) sont gomms. Loprateur approchvrifie alors une quation
matresse Markovienne (lquation de Pauli) du mme genre quecelle
obtenue par Boltzmann dans le cadre de la mcanique statistique
classique.
23 Pour notre propos qui est de prciser le concept d information
utilis en physique etden dvoiler ses limites, un premier
commentaire simpose cet endroit. Lvolution dunsystme vers son tat
dquilibre thermodynamique, quil soit modlis par lquation
deBoltzmann ou celle de Pauli a t, aprs coup, dcrite en termes
dinformation ou mme demmoire. Par exemple, le thorme H de Boltzmann
sinterprterait comme un transfertcontinu d information des
fonctions de rpartitions une particule vers les corrlationscres
chacune des collisions [Balian 2005, 21]. Dans le mme esprit, nous
pouvons lireque lors de son volution vers son tat dquilibre, le
systme macroscopique perd lammoire de ses tats microscopiques
antrieurs au bout dun temps t trs court par rapport lchelle de
temps caractristique de son volution macroscopique [Diu et al.
1989, 597].Cependant, quel est exactement le statut des notions d
information et de mmoireutilises par ces auteurs (et par bien
dautres encore) pour dcrire lvolution spontane dunsystme vers son
tat dquilibre thermodynamique? Sagit-il vraiment dune
informationpouvant tre attribue de faon intrinsque au systme
physiqueet de mme pour la notionde mmoire, et, si oui, comment? Ou
bien faut-il, comme cest gnralement le cas,comprendre ces notions
de faon subjective en faisant rfrence un observateur impersonnelqui
disposerait ou non de cette information-connaissance?
Malheureusement, il sembleraitque ce soit la deuxime option qui ait
t choisie par les physiciens jusqu trs rcemment. Leconcept
dinformation renvoie, chez ces auteurs, une notion dobservateur
susceptibledacqurir ou non cette information et cest mme ce critre
l qui dfinit la relevancedune telle information-connaisance. Les
observables relevantes sont, en effet, dfiniescomme celles qui
peuvent tre mesures ou contrles par ce mme observateur alors
quelentropie relevante correspondante value le manque
dinformation(-connaissance) surltat microscopique du systme compte
tenu du fait que ne peuvent tre observes oucontrles que cet
ensemble de variables macroscopiques relevantes [Balian 2005]5.
Enoutre, cette drive subjectiviste est amplifie dans les autres
propositions rapportes ci-aprs,qui sont tout aussi incontournables
que les prcdentes, puisque celles-ci font explicitementappel ce que
connat ou ne connat pas lobservateur ou lexprimentateur du
systmephysique considr.
I.3. Lhypothse du coarse-graining [Gibbs 1902]24 Lentropie
dfinie par Boltzmann, laide de la densit une particule, ne prenant
pas
en compte les interactions entre les composants du fluide (sauf
au moment des chocs),elle ne convient donc que pour des gaz
parfaits et non pas pour des fluides rels [Jaynes1965]. Cest ce qui
avait amen Gibbs considrer une dfinition plus gnrale de
lentropiethermodynamique utilisant la densit en phase (p(N), q(N),
t) dans lespace des phases 6Ndimensions, o la fonction H est alors
dfinie, pour un gaz N particules, par:
o p(N)=p1, , pN et q(N)=q1, , qN sont les coordonnes des N
particules dans q(N),, alors qued est llment de volume de autour du
point de coordonnes (p(N), q(N)).Notons que lentropie de Gibbs:
-
Physique, information statistique et complexit algorithmique
7
Philosophia Scienti, 11-2 | 2007
SGibbs=kBHGibbs (2)
est obtenu partir de lexpression quantique de lentropie (1) par
passage la limite: lorsquelaction caractristique du systme trs
grande devant h, la constante de Planck, les oprateursimpulsion et
position sont remplacs par des variables relles (coordonnes de
point de ), lesobservables deviennent des fonctions de ces
variables et lopration trace se rduit bien uneintgrale de volume
sur lespace des phases .
25 Comme ctait le cas pour lentropie de von Neumann, lors de
lvolution Hamiltonienne(classique) rgie par lquation de Liouville,
lentropie SGibbs reste constante. Pour interprterla croissance
monotone de lentropie thermodynamique jusqu ltat dquilibre, Gibbsa
introduit lhypothse de dcoupage grossier de lespace des phases,
dite de coarse-graining [Gibbs 1902, chapXII]:
(CG) Lespace est dcoup en petits lments de volume vj pour
lesquels la prcision de nosobservations ne permet pas de distinguer
entre deux de leurs points.
26 La distribution approche cg est donc obtenue par moyennage de
la densit exacte surchacun des vj, si le point reprsentatif du
systme se trouve dans vj. Cette densit coarse-grained approximative
vrifie une quation cintique Markovienne qui traduit ici de
faonexplicite le processus de perte progressive
dinformation-connaissance de lexprimentateur(ou de lobservateur)
sur ltat microscopique du systme, perte dinformation qui est dueau
caractre limit de la prcision de ses observations. Lentropie
correspondante ScgGibb, quiest, comme SGibbs, maximise par les
distributions dquilibre micro-canoniques, canoniques
etgrand-canoniques, est bien, en effet, une fonction non
dcroissante du temps.
I.4. Lhypothse dimprvisibilit de lvolution27 Signalons enfin,
pour terminer cette brve revue, un procd dun autre type qui a t
utilis pour tablir un pont entre mcanique statistique et
thermodynamique et qui reposeaussi de faon explicite sur le concept
dinformation-connaissance. Ce procd est bassur lide que
lirrversibilit thermodynamique traduirait notre manque de
connaissance delvolution effectivement suivie par un systme
physique et non sur lutilisation dune densiten phase ou dun
oprateur densit approximatif (relevant), comme dans les
propositionsprcdentes. Cette incertitude ou absence de prvisibilit
de lvolution fait appel ce quelon pourrait appeler lhypothse de
lHamiltonien mal connu qui permet dintroduireun lment de
stochasticit dans lvolution dynamique [Jaynes 1957] [Balian, 1982].
Onsuppose, en effet, que plusieurs volutions sont possibles pour le
systme physique considr,volutions qui dpendent de la valeur du
terme perturbatif Hj , pondr par la probabilitpj, dans lHamiltonien
Hj = H + Hj relatif lvolution j. Pour chacune des volutionsj,
loprateur densit du systme est rgi par la loi dvolution
Hamiltonienne et suit doncune volution conservative, cest--dire que
lentropie statistique SVN dfinie par lexpression(1) ci-dessus reste
constante, cest--dire que SVN [Dj (t)] = SVN [D(0)]. Cependant, par
laproprit de concavit de lentropie statistique [Balian 1982],
loprateur densit rsultant decet ensemble dvolutions possibles, qui
doit tre calcul t comme la moyenne pondrepar les probabilits pj des
oprateurs Dj(t), suit une volution dissipative. Lhypothse
delHamiltonien mal connu permet ainsi dtablir la croissance
monotone de lentropiequantique jusqu sa valeur maximale
(dquilibre).
28 Dautre part, Prigogine et ses collaborateurs ont propos une
modification des loisHamiltoniennes de faon y incorporer la
sensibilit de certains systmes dit mlangeantsaux conditions
initiales, systmes considrs alors comme tant intrinsquement
instables[Prigogine 1980]. Cependant, bien que cette proposition
soit fonde sur la limitation de notreconnaissance des conditions
initiales (mme si cest de faon plutt cache) et non sur celle
delHamiltonien, elle revient en fait interprter lirrversibilit
selon lide prsente ci-dessusdimprvisibilit de lvolution due un
manque dinformation-connaissance (ici, ce manquedinformation
concerne les conditions initiales et non lHamiltonien).
-
Physique, information statistique et complexit algorithmique
8
Philosophia Scienti, 11-2 | 2007
II. Lintroduction du concept dinformation statistique
enphysique
29 Cest ici que lon a franchi un pas supplmentaire dcisif (et
souvent accept sans discussion).On ne sest pas seulement content
dintroduire, de faon souvent implicite, des considrationsrelatives
l information dont nous disposons sur ltat microscopique dun
systmepour expliquer la croissance monotone de lentropie
thermodynamique que ce soit enutilisant lhypothse du chaos
molculaire, un concept de coarse graining, en dfinissantplus
gnralement une densit dtat ou un oprateur densit relevant(e) , ou
mmeen voquant un manque de prvisibilit de lvolution. Les dfinitions
statistiques delentropie thermodynamique propose par Boltzmann,
Gibbs et von Neumann, qui sontpleinement justifie par la taille
macroscopique des systmes considrs, ont t exploitesplus
radicalement encore : par une interprtation sub-jectiviste du
concept de probabilitinhrent ces dfinitions, certains ont propos
une pure et simple identification de la notiondentropie
thermodynamique avec celle d entropie statistique issue de la
thorie dela communication de Shannon et Weaver [Shannon &
Weaver 1948] et applique aucontexte physique dont il est question.
C est--dire quils ont propos lide selon laquellelentropie
thermodynamique dun systme physique ne serait finalement quune
mesure denotre ignorance de son tat microscopique.
30 Prcisons ce point essentiel. Lentropie statistique, quil
vaudrait mieux appeler manquedinformation-connaissance pour la
distinguer a priori des interprtations donnes parBoltzmann, Gibbs
ou von Neumann de lentropie thermodynamique dans le cadre de
lamcanique statistique, est dfinie de la faon suivante : pour un
ensemble dvnementspossibles E={e1 ..., ej, ..., en} pouvant
survenir avec des probabilits p1, ..., pj, ..., pn,
lentropiestatistique Sstat(E) de lensemble E, qui value
linformation manquante sur cet ensemble (oula quantit dinformation
moyenne qui peut tre acquise lors de lobservation que lun de
cesvnements se ralise), est dfinie par:
o K est un facteur multiplicatif choisi selon lunit dinformation
adopte.31 En thorie de la communication, Sstat(E) sinterprte comme
lincertitude sur lensemble de
tous les messages j qui peuvent tre reus. On choisit K=1 avec
des logarithmes en base 2 defaon dire que la quantit dinformation
obtenue par un tirage pile ou face (quiprobable)est de 1bit (ou
binary digit), ce qui dfinit lunit dinformation. Avec ce choix, la
quantitdinformation associe un message de n caractres crit dans un
langage binaire est denbits. En physique statistique, il suffit de
choisir K=kB, la constante de Boltzmann, et deslogarithmes npriens
pour tablir une parfaite identification formelle avec la dfinition
delentropie propose par Gibbs en physique classique (expression
(2)) ou von Neumann enphysique quantique (expression(1)).
32 En fait, une remarque importante simpose ici : afin
dappliquer ce dernier conceptdinformation statistique au domaine de
la physique quantique, il faut dfinir lensemble desvnements de
mesure qui sont susceptibles de nous informer sur ltat dun systme
et nonsur un tat modifi (rduit) par ces mesures. Il ne faut donc
sintresser qu des mesuresdobservables qui commutent avec loprateur
densit D reprsentatif de cet tat6. Moyennantce choix, lobservation
des diffrents rsultats possibles de la mesure dune telle
observabledcrit un ensemble dvnements (exclusifs) nous informant
sur ltat microscopique dusystme et linformation statistique (3)
associe cette distribution dvnements scrit alorscomme lentropie
quantique (1) de ce mme tat (et donc comme sa limite classique
(2)introduite par Gibbs).
33 Cette analogie formelle entre entropie thermodynamique
(classique ou quantique), dfinie dansle cadre de la mcanique
statistique, et entropie statistique, dfinie dans le cadre de
lathorie de la communication, a conduit trop rapidement une pure et
simple identificationconceptuelle de la notion dentropie
thermodynamique avec celle de manque dinformation-
-
Physique, information statistique et complexit algorithmique
9
Philosophia Scienti, 11-2 | 2007
connaissance. En effet, selon ce point de vue, lentropie
thermodynamique dun systmephysique se rduiraient ntre quune
valuation purement subjective de notre connaissancede son tat
microscopique. Et, par consquent, le second principe de la
thermodynamique, aulieu de rgir lvolution intrinsque dun systme
physique, ne traduirait que lvolution denotre connaissance des
dtails fins de ce systme.
34 Les succs de la mcanique statistique ne sont plus dmontrer
puis-qu elle permetdinterprter la notion dentropie thermodynamique,
de calculer les distributions dquilibre et,plus gnralement, de
retrouver la thermodynamique laide de rgles de
correspondanceadquates [Balian 1982, chap. 5]. Cependant,
lidentification de la dfinition statistique delentropie
thermodynamique, donne par Boltzmann, Gibbs ou von Neumann
(rappeles dansla section I), l entropie statistique la Shannon,
comme mesure de linformation-connaissance manquante, semble
constituer une sur-interprtation qui nest pas ncessaire.Cette drive
subjectiviste est bien sr lie linterprtation subjective de la
notion deprobabilit inhrente la description statistique des systmes
physiques qui est faite enmcanique statistique. En effet, en
mcanique statistique (classique) les tats microscopiquespossibles
dun systme physique forment un continuum dans lespace des phases
qui luiest associ, tandis que son tat macroscopique est dfini par
la donne dune densit deprobabilit ), w(p(N), q(N), t) dans cet
espace, densit partir de laquelle peuvent tre dfinies lesfonctions
de distribution des particules7. Mais les probabilits de la
mcanique statistiquemesurent tout dabord des rapports entre des
nombres de configurations (ou de microtats)physiques, et
linterprtation de la dfinition statistique de lentropie
thermodynamique enterme dinformation manquante, cest--dire selon la
formule de Shannon, ne simpose pas dutout! Par exemple, la
probabilit doccurrence dun micro-tat caractris par les valeursp0 et
q0, d3p et d3q prs, est dfinie comme le rapport du nombre de
microtats physiquespossibles satisfaisant ces conditions sur le
nombre total de micro-tats accessibles, cest--dire compatibles avec
les contraintes macroscopiques. Il serait, par consquent, beaucoup
pluspertinent (et aussi plus conforme lide des pres fondateurs de
la mcanique statistique)de relier la notion dentropie
thermodynamique la structure ou lorganisation intrinsquedes systmes
physiques considrs, et non notre manque de connaissance de leur
micro-tat.En outre, comme nous allons le voir dans la
sectionsuivante, linterprtation subjectiviste dela notion dentropie
thermodynamique mne certaines confusions et trouve rapidement
seslimites.
35 Enfin, comme nous le montrerons aussi, lutilisation exclusive
du concept statistiquedinformation rencontre trs vite dimportantes
limitations en physique quantique. Parexemple, elle ne peut servir
dfinir le contenu informationnel dun tat quantique puret, en
particulier, dun tat intriqu.
III. Critiques de lutilisation de la notion
dinformationstatistique en physique
III. 1. Subjectivit de lentropie thermodynamique: une source
deconfusion
36 Les interprtations de la notion dentropie thermodynamique en
terme dinformationstatistique se rfrent une notion dobservateur
puisquelles valuent son ignorancedes dtails fins du systme. Ce sont
donc des mesures de linformation-connaissancedont dispose (ou non)
lobservateur sur le systme et non des grandeurs qui pourraienttre
associes de faon intrinsque ce dernier. Comment lentropie
thermodynamique,qui est dfinie en thermodynamique partir des
paramtres physiques macroscopiquesintrinsques dun systme (volume,
nergie, temprature, nombre de particules), pourrait-elle,
paradoxalement, se rduire ntre quune grandeur purement subjective
dont la valeurdpend de ce que sait ou ne sait pas lobservateur?
Doit-on accepter lide selon laquellelvolution dun systme vers son
tat dquilibre thermodynamique dpendrait de ce que lonsait ou non de
son tat microscopique?
-
Physique, information statistique et complexit algorithmique
10
Philosophia Scienti, 11-2 | 2007
37 Cette identification entre entropie thermodynamique et
entropie statistique conduit,en outre, certaines conclusions trs
critiquables. Il sagit de lide, avance par Szilard,Brillouin ou
Costa de Beauregard, dun cot entropique de linformation , ide
selonlaquelle toute acquisition dinformation se payerait par une
augmentation dentropie ce qui permettrait ainsi de rsoudre le
paradoxe du dmon de Maxwell [Szillard 1929][Brillouin 1956] [Costa
de Beauregard 1963]. Rappelons que le dmon de Maxwell estun tre
intelligent microscopique qui serait capable de mettre en dfaut le
second principede la thermodynamique en diminuant lentropie dun
systme isol grce linformationquil acquiert sur ses composants
microscopiques. Selon la version originale imagin parMaxwell
[Maxwell 1871], le systme est une enceinte contenant un gaz et
spare en deuxcompartiments C et D par une cloison munie dune porte
microscopique. Le dmon ouvriraitalors la porte aux molcules de D
qui se dirigent vers C et la fermerait aux molculesde C qui veulent
schapper. Ce qui augmenterait lnergie interne du compartiment Cet
diminuerait celle du compartiment D, entranant, par consquent, une
diminution delentropie thermodynamique du systme8. Lintroduction
dun cot entropique de lacquisitiondinformation permettrait alors,
selon Szillard et Brillouin, de rsoudre ce paradoxe encompensant la
diminution dentropie du systme due au travail du dmon. Par exemple,
cecot entropique se traduirait par le rchauffement du gaz conscutif
lutilisation par le dmondune lampe-torche pour voir les molcules
afin de dterminer leur direction et ainsi deles rpartir dans les
compartiments C ou D.
38 Mais cette dernire conclusion a tout dabord t remise en
question par Landauer et Bennett:selon ces auteurs, ce serait la
destruction dinformation (permettant la r-initialisation de
lammoire du dmon avant chaque nouveau cycle) qui a un cot
thermodynamique et non sonacquisition qui peut tre, elle, rendue
rversible. Plus prcisment, selon le principe deLandauer, la
destruction d1bit dinformation la temprature T causerait une
dissipationdnergie minimum de kBT ln 2, et donc une augmentation
dentropie correspondante dekBln2 [Landauer 1961] [Bennett 1988].
Car, selon Landauer, la destruction dtats logiques aucours dun
calcul (irrversibilit logique) saccompagne ncessairement dune
augmentationdu nombre dtats physiques de lenvironnement afin de
compenser la compression destats physiques correspondant aux tats
logiques dtruits. A dfaut, toujours selon cetauteur, ce calcul
saccompagnerait dune diminution de lentropie thermodynamique
quiconstitue (selon linterprtation statistique quen a donne
Boltzmann) une mesure du nombredtats physiques accessibles. Or
cette diminution est interdite par le second principe de
lathermodynamique.
39 Comme nous lavons signal dans lintroduction, les discussions
passionnes autour duparadoxe du dmon de Maxwell ont t rassembles
dans le livre de Leff et Rex [Leff &Rex 2003]. Notons
simplement ici, pour illustrer lampleur de ce dbat, que le
principede Landauer a incit certains auteurs, comme Zurek ou Li et
Vitanyi [Zurek 1989] [Li &Vitnyi 1993, section8.4], proposer
une notion alternative dentropie thermodynamiquequi prend
explicitement en compte le contenu de la mmoire de lobservateur. En
effet, cesauteurs ont propos une notion d entropie physique (ou d
entropie algorithmique pour Li et Vita-nyi) comme la somme de
lentropie statistique (dont la variation
mesurelinformation-connaissance tire des observations) et de la
place-mmoire ncessaire pourencoder dans la mmoire du dmon les
donnes acquises par ces mmes observations (cetemplacement mmoire
est valu en terme de complexit algorithmiquedont la dfinitionest
donne la section suivante). Ces auteurs montent que cest partir de
cette notiondentropie physique (ou algorithmique) et non de la
seule entropie statistique que doittre calcul le travail utile que
le dmon peut extraire de ses observations (et,
corrlativement,laccroissement de la quantit de chaleur du systme
global).
40 Cependant, plus rcemment, il semble que le principe de
Landauer ait aussi t remis enquestion. Norton a tout dabord remarqu
que ce principe ne peut exorciser le dmon deMaxwell que dans
certains cas [Norton 2005]. Dans son article, Norton conoit par
exempleune machine cyberntique qui ferait le travail du dmon sans
procder ncessairement leffacement de sa mmoire. Ce qui a men
Bennett proposer une version plus gnrale
-
Physique, information statistique et complexit algorithmique
11
Philosophia Scienti, 11-2 | 2007
du principe de Landauer, selon laquelle ce serait toute opration
de fusion de cheminscomputationels , se traduisant par une rduction
dtats logiques au mme titre queleffacement de la mmoire, qui aurait
un cot entropique. [Bennett 2003]
41 Mais plus fondamentalement, Norton et Shenker doutent que le
principe de Landauer ou sagnralisation puissent vraiment exorciser
le dmon de Maxwell car les justifications qui sontgnralement donnes
ce principe qui associe la compression dtats logiques avec
celledtats physiques utiliserait de faon illicite la notion
densembles statistiques [Norton 2005][Shenker 2000]. Pour montrer
ce point, Norton reprend lillustration que font Leff et Rex
duprincipe de Landauer9, o ils modlisent la mmoire du dmon comme
une bote contenantune seule molcule et place en contact avec un
thermostat temprature T. Cette bote estspare en deux compartiments
par une cloison amovible et la position de cette dernire (dansle
compartiment de droite ou de gauche) dtermine alors ltat de la
mmoire du dmon [Leff& Rex 2003, 1].
42 Le calcul des entropies thermodynamiques de la bote (ou
cellule mmoire) donn par Leffet Rex assigne (a) la mme valeur dans
le cas o la molcule peut se trouver indiffremmentdans le
compartiment de droite ou celui de gauche et dans le cas o la
cloison de sparationentre les deux compartiments a t enleve
puisque, selon ces auteurs, dans ce dernier cas lamolcule a
toujours autant de chance de se trouver droite ou gauche (p.21)ce
quilfaut comprendre comme nous ne savons pas plus dans le deuxime
cas que dans le premiero se trouve la molcule. En outre, (b) cette
dernire valeur serait suprieure de kBln2 celle calcule dans le cas
o la position de la molcule est dtermine, en particulier lorsquela
mmoire a t efface et r-initialise, cest--dire lorsque la molcule se
trouve dans uneposition dtermine (cest--dire connue), par exemple
toujours gauche. Ce qui fait que lacompression dtats logiques, de
la situation o la molcule peut se trouver indiffremment droite ou
gauche (o deux cases-mmoires sont ncessaires) la situation o elle
se trouveobligatoirement gauche (o une seule case-mmoire est
ncessaire), se traduirait bien parune rduction dentropie
thermodynamique de la cellule-mmoire de kBln2 et donc par
uneaugmentation au moins gale kBln2 de lentropie de lenvironnement
(ici, le rservoir latemprature T), conformment au principe de
Landauer.
43 Norton montre alors (section3.2) que ce calcul est tout
simplement faux car (a)lenlvementde la cloison donne en fait lieu
une augmentation de lentropie thermodynamique de kBln2puisque le
volume accessible de lespace des phases est doubl lors de cette
opration,alors que (b)lentropie thermodynamique est la mme que lon
sache ou non o se trouvela molcule dans le cas o la bote est spare
en deux compartiments, et en particulieraprs effacement et
r-initialisation de la mmoire, lorsque la molcule se retrouve
dansle compartiment de gauche. Norton prcise alors que (l)entropie
thermodynamique estune proprit de la cellule et de son tat
physique; elle nest pas affecte par notre faondimaginer
larrangement des cellules entre elles [Norton 2005, 20]. La raison
de cetteerreur est, selon Norton, une utilisation illicite de la
notion densembles canoniques chez Leffet Rex. En effet, la
collection de cellules-mmoire pour laquelle est dfinie la
probabilitdoccurrence de la molcule dans lun ou lautre des deux
compartiments est considre, parLeff et Rex, comme un ensemble
canonique au mme titre que lest, en mcanique statistique,une
collection de systme similaires placs dans le mme tat macroscopique
et qui sont donccaractriss par la mme fonction de distribution de
lnergiece qui donne, en effet, un sensphysique lexpression de la
probabilit canonique [Norton
p(x)=exp(E(x)/kBT)/Z,
o E(x) est lnergie du systme au point de coordonnes gnralises
(dans lespace desphases relatif au systme considr)
x=(x1, x2, , xn),
alors que Z est la fonction de partition canonique qui se dfinit
aussi laide de luniquefonction E(x). Or, dans lexemple de Leff et
Rex repris par Norton, les cellules-mmoire ontdes fonctions nergie
diffrentes selon la position de la molcule: si la molcule se
trouve
-
Physique, information statistique et complexit algorithmique
12
Philosophia Scienti, 11-2 | 2007
droite, lnergie est finie dans la partie droite de lespace des
phases relatif cette collection etinfinie gauche, de faon ce que sa
probabilit de prsence sannule; et dans lautre cas cestle contraire
qui est vrai. La collection de cellules-mmoire constitu par un mme
nombre decellules avec la molcule droite ou gauche ne peut donc
dfinir un ensemble canonique ausens de la mcanique statistique
[Norton 2005, 18].
44 De faon plus directe, nous pouvons dire que la notion d
entropie utilise chez lesdfenseurs du principe de Landauer, et en
particulier dans lillustration donne par Leff et Rex,mesure un
manque dinformation-connaissance partir de probabilits
subjectivescommenous pouvons le constater dans largumentation de
Leff et Rex (points (a) et (b) ci-dessus).Or, ces probabilits
subjectives ne peuvent, en aucun cas, tre identifies aux
probabilitsphysiques de la mcanique statistique qui valuent, elles,
des rapports entre nombres deconfigurations physiques accessibles,
ces dernires servant dfinir les ensembles statistiquesde la
mcanique statistique. Comme le montre Norton, lutilisation
densembles statistiquesest donc bien illicite dans ce cas.
45 Bien que le dbat sur le paradoxe du dmon de Maxwell ne soit
peut-tre pas dfinitivementclos aujourdhui, ce que lon peut affirmer
est que sa rsolution, propose initialement parSzillard puis
reformule ensuite par Landauer et Bennett en termes de cot
entropique deleffacement de la mmoire, est srieusement remise en
cause aujourdhui. L ide dunequivalence, quelle soit directe ou non,
entre nguentropie et information-connaissancene peut plus tre
soutenue: soit sa justification est base sur des exemples
particuliers quicontiennent dj une tape thermodynamiquement
irrversible [Norton 2005, sectionII.3], soitelle utilise de faon
illicite la notion densemble statistique, en identifiant
implicitement lesprobabilits introduites par Boltzmann ou Gibbs en
mcanique statistique des probabilitssubjectives.
46 Cette remise en question des solutions proposes au paradoxe
du dmon de Maxwell sur la basedune suppose identification entre
entropie thermodynamique et manque dinformation-connaissance semble
donc confirmer les doutes formuls au dbut de cette section : il
estdifficile de croire que lentropie thermodynamique, qui est
dfinie partir des paramtresphysiques macroscopiques intrinsques dun
systme (volume, nergie, nombre de particules,temprature... ),
pourrait se rduire ntre quune grandeur purement subjective dont la
valeurdpend de ce que sait ou ne sait pas lobservateur. Lide selon
laquelle lvolution dunsystme vers son tat dquilibre thermodynamique
dpendrait de ce que lon sait ou non deson tat microscopique
semblerait relever en fin de compte dune conception plutt nave
denotre relation au monde physique.
III. 2. Critiques plus techniquesIII. 2. 1. La rfrence la notion
de mesure est problmatique
47 Linformation statistique Sstat dfinie par lexpression(3)
mesure linformation-connaissancemoyenne qui peut tre acquise lors
de lobservation que lun des vnements de lensembleE des vnements
possibles se ralise. Cette notion fait donc rfrence une notiond
observation (ou de rception dun message dans le contexte de la
thorie dela communication o cette dfinition a t propose), sans
laquelle sa dfinition nauraitdailleurs aucun sens. Ceci a une
consquence fcheuse pour sa contrepartie formelle enphysique
quantique, lentropie SVN dun oprateur (rappele dans la section I).
En effet,lentropie SVN dun oprateur densit D:
peut bien scrire sous la forme dune entropie statistique:
o les probabilits pj sont les valeurs propres de D:
48 Mais ce nest que dans le cas dobservables qui commutent avec
D , du type:
-
Physique, information statistique et complexit algorithmique
13
Philosophia Scienti, 11-2 | 2007
que les probabilits dobtention des rsultats possibles bj sont
gales aux pj . Ce nest, en effet,que dans ce cas (mesure non
perturbative) que la mesure de B va nous renseigner sur ltat Det
non un tat rduit. Par consquent, SVN[D] nvalue que lincertitude
relative la mesuredobservables qui commutent avec D et non
lincertitude relative la mesure de nimportequelle observable.
49 Dailleurs, si lon considre la mesure (complte) dune
observable B qui ne commute pasavec D, le gain moyen dinformation
serait paradoxalement plus grand que linformationmanquante SVN[D]
avant la mesure! En effet, dans ce cas la mesure de B ne nous
informepas sur ltat initial D du systme mais sur un tat tronqu
(rduit) D'=jPjDPj, o lesPj sont les projecteurs sur les
sous-espaces associs aux rsultats possibles bj de la mesure deB, et
on montre que [Balian 1982, 105]:
SVN[D']>SVN[D].
50 Par consquent, lentropie SVN dun oprateur donne par von
Neumann en physique quantique,dont la dfinition se rfre, comme
celle de Sstat, une notion dobservation ou de mesure, nepeut, en
outre, valuer que lincertitude relative la mesure des observables
qui commutentavec cet oprateur. Son utilisation nest donc justifie
que relativement cette dernire classedobservable.
III. 2. 2. Quelle mesure pour linformation quantique?51
Lentropie SVN dun oprateur densit, comme l entropie statistique
Sstat est dfinie
ngativement , comme une incertitude (ou un manque dinformation )
lie unedistribution dvnements ou dtats possibles. Ce qui a pour
consquence que lentropie Sstatdfinie par:
SVN[D]=kBTrDlnD (1)
ne mesure que le degr de puret de D mais nest pas dfinie pour un
tat pur: en fait, pourun tat pur elle est prise nulle par
convention ou par construction. Elle ne peut donc, enaucun cas, tre
utilis pour valuer le contenu informationnel dun tat pur.
52 Il serait bien sr possible de dfinir une notion dinformation
statistique pour un systmeprpar dans un tat pur en considrant
lensemble des mesures que lon pourrait effectuersur ce systme.
Cette grandeur, appele par Pomeransky entropie informationnelle
[Po-meransky 2004], value la quantit moyenne
dinformation-connaissance que lon pourraitobtenir en effectuant ces
mesures. Mais, comme nous lavons remarqu ci-dessus, la rfrence une
notion de mesure nest pas satisfaisante puisqu une mesure ne
fournit en gnralquune information trs partielle dun tat quantique
(celle de ltat rduit)10. Et le faitde considrer un ensemble de
mesures possibles ne permet pas plus de dfinir une
grandeurintrinsque cet tat purmais seulement une grandeur relative
ces mesures.
53 En particulier, il faudrait pouvoir valuer le contenu
informationnel dun tat intriququi joue un rle fondamental dans les
phnomnes typiquement quantiques (corrlationsEPR) et qui constitue
une ressource essentielle pour la ralisation de diverses
tchesspcifiquement quantiques, comme le codage superdense, la
tlportation quantique, lacryptographie quantique ou le calcul
effectu par un ordinateur quantique [Nielsen 1998][Delahaye 2002]
[Le Bellac 2005]. Une proposition a bien t faite par Everett (et
confirmepar la suite) pour valuer une information de corrlation ou
information mutuelle dedeux observables dfinies, respectivement,
sur deux parties d un systme prpar dans untat pur [Everett 1973]
[Schumacher 1990, 33-34]. Mais, comme son nom lindique,
cetteinformation de corrlation value le degr de corrlation entre
deux observables, en termede quantit moyenne
dinformation-connaissance que peut apporter la mesure de lune
desdeux observables sur la distribution des valeurs possible de
lautre. Par consquent, commectait le cas ci-dessus pour lentropie
informationnelle de Pomeransky, linformation decorrlation renvoie
une notion de mesure (ou dobservable) et ne peut donc constituer
une
-
Physique, information statistique et complexit algorithmique
14
Philosophia Scienti, 11-2 | 2007
valuation satisfaisante de linformation dintrication
caractristique dun tat quantique pur.Cette information dintrication
qui est utilise comme ressource et qui est manipule dansles
diffrentes applications de la thorie de l information quantique
devrait tre considrecomme une entit part entire, dfinie
indpendamment des observables quil serait possibleou non de mesurer
sur un systme physique prpar dans cet tat.
54 Les critiques prcdentes suggrent donc quil faudrait dfinir
une mesure individuelle delinformation encode dans un tat quantique
qui ne soit pas de nature statistique (pasdutilisation des
probabilits) et qui ne soit pas relative certaines variables
relevantes quelon pourrait mesurer ou contrler. Cest--dire une
information structurelle qui caractrisede faon intrinsque ltat d un
systme physique individuel. Ce qui permettrait, par lamme occasion,
de surmonter les difficults conceptuelles (subjectivisme) dues
lutilisationexclusive dun concept dinformation-connaissance pour
dfinir l entropie physique.
IV. La notion de complexit algorithmique [Solomonoff1964]
[Kolmogorov 1965] [Chaitin 1977] [Li & Vitnyi 1993]IV. 1
Complexit algorithmique dune suite binaire
55 Si sest une suite de symboles d un langage binaire (ne
contenant, par exemple, que 0 et 1),la complexit algorithmique k(s)
dune suite sest la longueur du plus petit programme auto-dlimit d
ordinateur (machine de Turing universelle) capable de produire la
suite s.11
56 La longueur dun programme est mesure en binary digits (bits
classiques ). Parailleurs, le programme est dit auto-dlimit car il
contient linformation relative sataille, ce qui permet larrt de la
machine de Turing universelle lorsque le programme est lu.Cette
condition, qui permet une lecture (unique et) instantane dun
programme, joue unrle important dans la dmonstration de la double
ingalit fondamentale liant la notion decomplexit algorithmique
celle dinformation statistique qui sera introduite et utilise
dansles sectionssuivantes.
57 La complexit algorithmique dune suite est une mesure de son
contenu incompressibledinformation. Par exemple, la complexit
algorithmique dune suite rgulire, comme10101010101010101010, qui
peut tre engendre par le programme simple crire 10 fois10, est plus
petite que la complexit algorithmique de la suite moins rgulire de
mmelongueur 10011010001100000111. La notion de complexit
algorithmique capture doncla diffrence intuitive entre suite
rgulire pouvant tre engendre par un programme courtet suite
purement alatoire qui ne peut tre engendre que par elle-mme12.
58 Ce qui est essentiel pour notre propos est que la notion de
complexit algorithmique ne faitpas appel aux probabilits,
contrairement celle dinformation statistique, et, en outre, ne
serfre pas une quelconque notion de mesure ou dobservation. Elle
nest pas une valuationde linformation-connaissance qui pourrait tre
obtenue par lobservation dun vnementpris dans un ensemble dvnements
possibles (ici, ce serait lobtention dune suite parmi unensemble de
suites possibles). La complexit algorithmique value linformation
structurellepouvant tre associe de faon intrinsque une suite
binaire et donc nimporte quelle entitpouvant tre dcrite laide dune
suite binairecomme, par exemple, ltat dun systmephysique (voir
ci-aprs les sectionsV et VI).
59 Notons enfin quil est possible de dfinir les notions de
complexit algorithmique jointe(mesurant la longueur du plus petit
programme capable de dcrire la concatnation de deuxsuites
binaires), conditionnelle (mesurant la longueur du plus petit
programme capable dedcrire une suite partir dune autre) et mutuelle
(mesurant le degr de corrlation entre deuxsuites).
IV. 2. Relation fondamentale liant complexit algorithmique
etinformation statistique
60 La thorie de linformation algorithmique permet dtablir la
double ingalit fondamentalesuivante liant lentropie statistique et
la complexit algorithmique [Levin 1976] [Chaitin1977] [Zurek 1989]
[Caves 1990] [Li & Vitnyi 1993]:
-
Physique, information statistique et complexit algorithmique
15
Philosophia Scienti, 11-2 | 2007
o E est lensemble des suites Sj associes aux probabilits
doccurrence pj, Sstat(E)=jpjlog2pjest lentropie statistique de
lensemble E, exprime en units naturelles dinformations(voir la
section II), E = j pj k (sj) est la valeur moyenne sur E de la
taille desprogrammes les plus courts qui dcrivent les suites sj;
k(E) est la taille du programme le pluscourt qui dcrit lensemble
des suites sj et leurs probabilits doccurrence pj,et 0(1) est
uneconstante caractrisant la machine de Turing universelle choisie
pour valuer les valeurs de k.
61 En particulier, pour des ensembles E dont la description peut
se faire de faon concise,cest--dire laide de quelques bits
dinformation, le terme k(E) est ngligeable devant Sstat(E)et
lingalit (4) se rduit alors lgalit suivante, la constante 0(1)
prs:
62 Cependant, mme si cette dernire hypothse (k(E)
-
Physique, information statistique et complexit algorithmique
16
Philosophia Scienti, 11-2 | 2007
65 Comme application directe de ce rsultat, citons le calcul de
lentropie dun gaz parfait lquilibre effectu par Zurek [Zurek 1989].
Dans ce cas, E est la longueurmoyenne du plus petit programme qui
produit lune des suites sj (relative au micro-tat j) partir du
programme pE/ qui dcrit lensemble des suites sj et la distribution
de probabilitassocie compte tenu de linformation pralable sur le
systme (les paramtres dfinissant lemacro-tat du systme et la thorie
physique qui permet lnumration des micro-tats j etdes probabilits
associes). Or, si W est le nombre de ces micro-tats, la
spcification de lundeux parmi les W possibles requiert de donner
son adresse dans cet ensemble, qui est unnombre plus petit ou gal
W. Dautre part, la longueur du plus petit programme qui produitle
nombre W est de lordre de log2 W (qui est approximativement le
nombre de bits quil faututiliser pour sa reprsentation binaire,
pour W suffisamment grand)13.
66 Par consquent, on calcule dans ce cas (toujours en units
naturelle dinformation) que:
On retrouve donc la formule introduite par Boltzmann sans faire
appel la notiondinformation statistique dfinie par lexpression (3)!
laide de cette valuation on retrouveeffectivement la formule de
Sackur-Tetrode donnant lentropie dun gaz parfait (classique)
lquilibre en valuant le nombre de micro-tats possibles W
compatibles avec les contraintesmacroscopiques [Zurek 1989,
4736].
67 Par consquent, dans la mesure o cela fait sens de parler de
lensemble E des micro-tats (classiques) possibles compatibles avec
la description macroscopique du systme, lathermodynamique peut tre
base sur la notion de complexit algorithmique qui ne mesure
pasnotre manque dinformation sur ltat microscopique dun systme (ni
sur son Hamiltonienou les conditions initiales) mais linformation
structurelle moyenne de ses configurationsmicroscopiques possibles,
mme si cest une certaine prcision prs. En fait, un tel ensembleE de
micro-tats peut bien sr tre dfini ltat dquilibre thermodynamique,
comme danslapplication ci-dessus, mais aussi ds quune description
locale de ltat macroscopique dunsystme physique peut tre donne, ce
qui est possible lorsqu il peut tre dcoup ensous-systmes (
lquilibre local et) en quilibre mutuel, sous-systmes pour lesquels
il estpossible de dfinir des ensembles pondrs de micro-tats tels
que E, par exemple laide dela distribution de Maxwell-Boltzmann
pour chacune des parties dun gaz parfait lquilibrelocal. Mais, en
fait, ces conditions ne sont, ni plus ni moins, celles qui doivent
tre satisfaites sion veut donner un sens la notion dentropie
thermodynamique et donc au second principede la thermodynamique
(voir sectionI, note2). La dfinition algorithmique(5) de
lentropiethermodynamique nintroduit donc aucune contrainte
supplmentaire.
68 Linterprtation de la notion dentropie thermodynamique en
terme de complexitalgorithmique permet donc une interprtation
structurelle de la notion dentropiethermodynamique qui saccorde
mieux avec celle donne initialement par Boltzmann, enterme de
dsordre molculaire [Boltzmann 1876, in Brush 1966], quavec celle,
plustardive, donne par Jaynes ou Balian, en terme de manque d
information-connaissance. Il nya en fait plus de confusion possible
entre entropie thermodynamique dun systme physiqueet manque
dinformation-connaissance de son tat microscopique puisque, par sa
dfinitionalgorithmique (5), lentropie thermodynamique value le degr
dorganisation intrinsque dece systme (mme si cest moyennant une
certaine prcision). En outre, le second principe de
lathermodynamique acquiert une interprtation structurelle: pour un
systme isol, la croissancemonotone de la valeur moyenne E de la
complexit algorithmique conditionnelledes micro-tats possibles
jusqu ce que soit atteint ltat dquilibre thermodynamique
signifieque la description de ltat microscopique dun systme
physique requiert de plus en plusdinformation lorsque ce systme
tend vers son tat dquilibre. Ce qui se traduit ici, en termede
complexit algorithmique, par le caractre de plus en plus alatoire
(et donc de moins enmoins compressible) des suites de symboles
utilises pour encoder les tats microscopiques
-
Physique, information statistique et complexit algorithmique
17
Philosophia Scienti, 11-2 | 2007
accessibles. Cette ide saccorde aussi avec lintuition des
fondateurs de la mcaniquestatistique selon laquelle ltat dquilibre
(macroscopique) est le plus dsordonn.
VI. Physique quantique et complexit algorithmique69 Nous avions
not dans la sectionIV que les micro-tats classiques dun systme
physique
peuvent tre considrs comme des configurations spatiales
instantanes de ce systme,descriptibles en terme de suites binaires.
Cependant, nous pouvons nous demander si lestats quantiques peuvent
vraiment tre considrs comme tels. Il y a en effet un sens prcis
considrer la description de ltat microscopique dun systme physique
en physique classique,par exemple (description purement mcanique)
en se donnant la position et la quantitde mouvement de chacune des
particules qui le composent. Mais, comme nous le montrelabondante
littrature sur le sujet (voir, en particulier, [dEspagnat 1994, 4.3
ou chap.11] et[Bitbol 1996]), ltat quantique d un systme ne
constitue pas la simple descriptiondune ralit spatio-temporelle
pr-existante aux mesures que lon peut faire sur ce systme.Il ne
peut, malgr certaines propositions pour interprter la thorie
quantique de faon raliste[Bohm & Hiley 1993], tre considr comme
une vritable description dun systmephysique au mme titre quun tat
classique, cest--dire en terme de proprits dobjets quiseraient
dfinies chaque instant. Ltat quantique doit, avant tout, tre
considr commeune entit mathmatique encodant linformation relative
un contexte exprimental ou une prparation, information permettant
le calcul des prdictions relativement ce contexte(cest un outil
prdictif contextuel selon les mots de Bitbol). La notion de
complexitalgorithmique peut-elle alors sappliquer aux tats
quantiques?
70 Il est en fait possible de rpondre positivement cette
question. Nous allons donc chercher prciser comment une complexit
algorithmique quantique peut tre dfinie et que celle-cipeut tre
aussi utilise, comme dans le cas classique, pour dfinir lentropie
thermodynamique.
71 Une premire classe de propositions pour dfinir une notion de
complexit algorithmique pourun qubit14 ou une suite de qubits se
rfre au travail dun ordinateur quantique, cherchant ainsi gnraliser
le dfinition classique donne la sectionIV. Dans cet ordre dides,
Vitnyi[Vitnyi 2001] dfinit la complexit algorithmique du qubit
|> comme la longueur, en bitsclassiques, du plus petit programme
d un ordinateur quantique susceptible de produire oude calculer
exactement un qubit approch |> de |>, qui serait, lui,
calculable, touten prenant en compte la fidlit du calcul,
cest--dire son degr dapproximation qui peut trevalu par la quantit
||2 . De leur ct, Berthiaume, van Dam et Laplante [Berthiaumeet al.
2000] proposent de considrer comme mesure de la complexit
algorithmique dune suitedonne de qubits (et donc, en particulier,
dun seul qubit) la longueur, mesure en qubits15, dela plus petite
entre quantique (qui est aussi une suite de qubits) dun ordinateur
quantique quiproduit ou calcule la suite de qubits donne
initialement (ou le qubit unique donn),et en prenant toujours en
compte la fidlit16 du calcul. La diffrence essentielle entre
cesdeux approches est que Vitnyi propose une mesure de la complexit
algorithmique quantiquedun qubit en bits classiques, comme mesure
de la longueur dun programme classiquefonctionnant sur un
ordinateur quantique, alors que Berthiaume et al. en donnent une
mesureen termes de qubits, mesurant la longueur de lentre quantique
dun tel ordinateur.
72 Cependant, ces propositions soulvent la question essentielle
suivante : que veut direproduire ou calculer un qubit? Dans le cas
classique, calculer un mico-tat dunsystme physique revenait dcrire
sa configuration spatio-temporelle, par exemple en termesdes
positions et quantit de mouvement de ses constituants, cest--dire
dcrire ce quil estvraiment, indpendamment de toute autre
considration comme nos moyens daccs laconnaissance de cet tat.
Mais, comme nous lavons remarqu ci-dessus, un tat quantiquene peut
tre considr comme tel. Il est avant tout une entit abstraite qui
encode l informationrelative une prparation donne et qui permet de
prdire les rsultats de mesure quil seraitpossible dobtenir en
mesurant telle ou telle observable.
73 La description dun tat quantique pur pourrait-elle alors
dsigner, ainsi que le suggreaussi Vitnyi [Vitnyi 2001, 3-4], celle
de ses deux coefficients complexes dans une certainebase? Ces
derniers tant dfinis laide de quatre nombres rels, il faudrait donc
considrer
-
Physique, information statistique et complexit algorithmique
18
Philosophia Scienti, 11-2 | 2007
la longueur du plus petit programme qui crit ces quatre nombres
rels. Or, tous les nombresrels ne sont pas calculables17. Par
contre, on peut montrer que tout nombre algbrique, quiest racine d
un polynme coefficients entiers, est calculable (alors que les
autres rels,qui sont qualifis de transcendants, comme nou e, la
base des log npriens, ne le sont pasforcment). Par consquent, il y
aurait un sens parler du plus petit programme qui calculeou produit
un tat approch |> de |> dont tous les coefficients sont
calculables (cest--dire quils sont constitus par des couples de
rels calculables au sens prcis dfini ici, pourdes nombres).
74 Mais une telle proposition, qui est intressante dun point de
vue purement algorithmique, nestpas trs significative du point de
vue de la physique. Il est difficile de croire que la
complexitnumrique des coefficients utiliss pour crire le vecteur
reprsentatif de ltat quantiquedun systme physique nous informerait
sur la complexit physique des phnomnes quipeuvent tre observs.
Comme le montre lapplication de la thorie quantique des
situationsparadigmatiques, telle les phnomnes dinterfrences ou les
corrlations EPR, des tatsquantiques peuvent scrire laide de nombres
entiers ou rationnels, cest--dire laide denombres algorithmiquement
simples, et donner cependant lieu des phnomnes
typiquementquantiques rvlant une grande complexit physique,
cest--dire en fait dune grande richesse informationnelle. II est
donc souhaitable de dfinir autrement que selon la
conceptionpurement numrique mentionne ici la complexit
algorithmique dun tat quantique.
75 Ces remarques nous mnent considrer une deuxime approche18 qui
se base sur lideexpose au dbut de la sectionVI, plus proche de la
ralit exprimentale, ide selon laquelleun tat quantique doit, avant
tout, tre considr comme une entit mathmatique dfinierelativement un
processus de prparation donn. Selon cette conception, Mora et
Briegelproposent de dfinir la complexit algorithmique d un tat
quantique de la faon suivante[Mora & Briegel 2005]:
76 Ces auteurs suggrent que la complexit dun tat quantique est
lie la complexitdu processus de sa prparation qui peut tre dcrit
classiquement , cest--dire parlintermdiaire dun canal de
communication classique qui nutilise que de linformationclassique.
Ce processus exprimental peut tre idalis comme une suite finie de
porteslogiques. Les portes logiques (quantiques) formalisent les
oprations lmentaires partirdesquelles peut tre gnre toute
prparation, prparation qui se traduit en fin de compte parune
manipulation de qubits. Par exemple, outre les portes logiques qui
modifient la phase duqubit dentre ou qui induisent une rotation, on
utilise couramment lopration de Hadamardqui agit sur lun des qubits
d une base standard (|0>,|1>) et calcule, respectivement,
unesuperposition linaire poids gaux ou opposs de ces vecteurs de
base:
ou la porte CNOT qui change les tats |0> et |1> du qubit
cible |y> dun 2-qubit detype |x,y>, o x et y peuvent prendre
les valeurs 0 ou 1, mais seulement dans le cas o lequbit contrle,
|x> , est |1>:
[Nielsen 1998].
77 Une procdure de prparation donne pour un tat quantique
utilise donc une suite finiede portes logiques d une base B donne.
Pour coder le circuit ainsi dfini, nomm CB,il faut se donner un
code qui va assigner chaque circuit possible une suite de bits qui
estdiffrente de celle assign aux autres circuits. Mora et Briegel
dfinissent alors la complexit
-
Physique, information statistique et complexit algorithmique
19
Philosophia Scienti, 11-2 | 2007
algorithmique (classique) d un tat quantique |> relativement
la base B, au code et au circuit CB par [Mora & Briegel 2005,
7]:
o (CB) est le code associ au circuit CB et kcl( (CB)) dsigne la
longueur du plus petitprogramme, en bits classiques, capable de
gnrer (CB).
78 Puisqu il existe gnralement plusieurs procdures pour prparer
un tat quantique donn,la complexit algorithmique de |>
relativement la base B et au code sera en fait dfiniepar la valeur
minimale de la quantit dfinie par lexpression (6) sur tous les
circuits possiblesCB:
79 Une remarque importante concernant la cohrence de cette
dfinition : il est possible demontrer une proprit dinvariance par
changement de code, une constante additive prs.Plus prcisment, pour
deux codes et la diffrence de complexit dfinie ainsi est
uneconstante ne dpendant que de et [Mora & Briegel 2005,
7-8].
80 Enfin, la dfinition ci-dessus suppose, idalement, que ltat
|> peut tre prpar exactement partir dun circuit CB. Dans le cas
gnral, les circuits utiliss permettent la prparation de| > une
certaine prcision . Par consquent, plus gnralement encore, la
complexitalgorithmique de ltat quantique |> relativement la base
B, au code et au paramtrede prcision est dfinie par:
o CB(|>) est le circuit qui prpare |> avec la prcision .81
La dpendance de la dfinition ci-dessus par rapport la base B
pourrait faire croire que
le circuit le plus court servant prparer un tat quantique donn
peut toujours tre renduaussi simple que lon veut en choisissant
correctement la base B, ce qui ferait perdre cettedfinition
beaucoup de son intrt. En fait, comme le montrent Mora et Briegel,
il nen estrien [Mora and Briegel 2005, 11-12]: de mme que le nombre
de suites binaires de longueurn compressibles, dont la complexit
est infrieure un nombre entier donn, est petit parrapport au nombre
total des suites binaires de longueur n, le nombre dtats quantiques
dont lacomplexit algorithmique relative une base quelconque et une
prcision donne est infrieure un nombre entier donn est petit par
rapport au nombre total dtats pouvant tre prpar laide de cette mme
base et avec la mme prcision.
82 La possibilit de dfinir une notion de complexit algorithmique
dun tat quantiqueindividuel permet en particulier de dfinir
linformation dintrication dun qubit en termede complexit
algorithmique. Ce qui ne pouvait se faire laide de la notion
statistiquedinformation (sectionIII.2). Une telle dfinition
algorithmique de linformation dintricationpermettrait une valuation
quantitative des quantits dinformation manipules et (ou)transmises
dans des tches typiquement quantiques (codage superdense,
tlportationquantique, calcul quantique), ce qui conduirait alors en
prciser les possibilits et leslimites.
83 Pour cette dfinition, on peut utiliser la notion de complexit
algorithmique mutuelle. Lacomplexit algorithmique mutuelle de deux
suite set s, qui est une mesure de leur degr decorrlation, est
dfinie de la faon suivante:
k(s: s)=k(s)+k(s)k(ss)
o k(ss) mesure la complexit de la suite jointe ss. Linformation
dintrication dunsystmeS1,2 prpar dans ltat |1,2>, S1,2 tant
compos de deux sous-systmes S1 et S2 dontcertaines des observables
sont corrles (peu importe lesquelles), peut alors tre dfinie
par:
kintri(S1,2)=k(D1)+k(D2)k(D1,2)
-
Physique, information statistique et complexit algorithmique
20
Philosophia Scienti, 11-2 | 2007
84 o D1,2=|1,2> auquel est associ une distribution de
probabilits {pj}. Or, daprs lesdveloppements prcdents, chaque tat
|J> peut tre considr, relativement une base Bdonne, comme le
rsultat dune certaine prparation exprimentale correspondant un
certaincircuit (de longueur minimale) CB, lequel pouvant tre cod
par une suite de symbolespour laquelle est dfini de faon tout fait
classique une notion de complexit algorithmique.Lensemble des
circuits prparant les micro-tats | J> associs aux probabilits pj
peutdonc tre dcrit classiquement, comme un ensemble statistique de
suites binaires, de lamme manire que lensemble des micro-tats
classiques de la sectionV. Par consquent, lesrsultats rapports de
cette sectionsont applicables tels quels.
86 Dailleurs, titre dapplication de cette quivalence dans le
cadre de la mcaniquestatistique quantique, Caves a ainsi retrouv
lexpression de lentropie microcanonique [Caves1990] : Le nombre de
microtats accessibles Pj, considrs comme quiprobables,dun systme
dnergie E, la rsolution E prs, est (E) E, o (E) est la densitdtat.
Par consquent, utilisant lquivalence fondamentale (4) entre
entropie statistiqueconditionnelle et complexit algorithmique
conditionnelle moyenne des micro-tats Pj, lacomplexit algorithmique
du nombre (E)E tant de lordre de log2(E)E, on retrouvelentropie
microcanonique19Smicro=log2(E)E, expression qui se rduit, pour un
systme detaille macroscopique, log2(E).
Conclusion: Vers une thermodynamique delinformation
87 Les dveloppements prcdents montrent que la notion de
complexit algorithmique peut treutilise pour valuer, dun point de
vue dgag de tout subjectivisme excessif, linformationstructurelle
encode dans un tat physique, que cet tat soit considr dans le cadre
classiqueou quantiquela notion dtat faisant, dans ce dernier cas,
rfrence un processus deprparation exprimentale. Cette valuation de
linformation structurelle dun tat physique,qui ne se dfinit pas par
rfrence la connaissance (ou au manque de connaissance) quen
alobservateur, permet dinterprter la notion dentropie
thermodynamique en terme de degrdorganisation, cest--dire comme une
grandeur pouvant tre assigne de faon intrinsqueau systme physique
considr. En outre, une telle valuation du contenu informationnel
duntat quantique individuel, qui ne se rfre ni une notion densemble
statistique (via unedistribution de probabilits) ni des processus
de mesure, peut donner lieu un traitementquantitatif des phnomnes
de transport et de manipulation dinformation qui interviennent
defaon essentielle dans les applications de la thorie de
linformation quantique.
88 Il semblerait, par consquent, que la notion de complexit
algorithmique rende possible laconstruction dune vritable
thermodynamique de linformation rgissant les changes,la
manipulation et les transformations de linformation-organisation
des systmes physiques,une science de linformation dgage de tout
subjectivisme excessif.
Je remercie Roger Balian pour sa critique dtaille et trs
stimulante de la premire versionde ce manuscrit, ainsi que Jean
Paul Delahaye pour ses remarques constructives et sessuggestions
intressantes. Je remercie aussi un referee anonyme pour son
expertise sur lapartie de ce manuscrit concernant lapplication de
la notion de complexit algorithmique la
-
Physique, information statistique et complexit algorithmique
21
Philosophia Scienti, 11-2 | 2007
physique quantique. Enfin, je suis trs reconnaissant envers
Guido Baccagaluppi de mavoirinvit exposer les ides dveloppes dans
ce texte au sminaire de Philosophie des Sciencesde lIHPST, ainsi
que pour nos discussions fructueuses sur le sujet.
Bibliographie
BALIAN, R. 1982 Du microscopique au macroscopique. Cours de
physique statistique de lEcole Polytechnique,Tome1, d.Ellipses.
2005 Information in statistical physics, Studies in Histories and
Philosophy of Modern Physics 36.
BENNETT, C. H. 1988 Notes on the History of Reversible
Computation, IBM J. Res. Dev., Vol.32, p.16.
BERTHIAIJME, A., VANDAM W. & LAPLANTE, S. 2000 Quantum
Kolmogorov Complexity, ArXiv:quant-ph/0005018 v1, 3 May 2000
BITBOL, M. 1988 The concept of measurement and time symmetry in
quantum mechanics, Philosophy of Science,55, 349-375. 1996 Mcanique
Quantique. Une introduction philosophique, dition Flammarion.
BOHM, D. & HILEY, B. J. 1993 The Undivided Universe,
Routledge.
BOLTZMANN, L. IN BRUSH S. G. 1966 Kinetic Theory, Vol. 2
(Irreversible Processes), Oxford: Pergamon.
BRILLOUIN, L. 1956 Science and Information Theory, New York:
Academic Press.
CALLEN, H. B. 1975 Thermodynamics, New York: Willey.
CAVES, C. M. 1990 Entropy and Information: How much Information
is Needed to Assign a Probability?, inComplexity, Entropy and the
Physics of Information, Zurek, W.H. (ed) Addisson-Wesley Pub.
Co.
CHAITIN, G. J. 1977 Algorithmic Information Theory, IBM J. Res.
Dev. , Vol.21, p.350.
COSTADEBEAUREGARD, O. 1963 Le Second Principe de la Science du
Temps, dition du Seuil.
COULON, C. & MOREAU, S. 2000 Physique statistique et
thermodynamique, Dunod.
DELAHAYE, J. P. 2002 Lintelligence et le calcul, Belin.
Collection Pour la Science.
DIU, B., GUTHMANN, C., LEDERER, D. & ROULET, B. 1989
Physique Statistique, dition Hermann.
ESPAGNAT, B. D 1994 Le Rel Voil. Analyse des concepts
quantiques, Fayard.
EVERETT, H. 1973 The Many-Words Interpretation of Quantum
Mechanics, Princeton Series in Physics, PrincetonUniversity
Press.
GACS, P. 2001 Quantum Algorithmic Entropy, Ar-Xiv:
quant-ph/0011046 v2.
GIBBS, J.W. 1902 Elementary Principles in Statistical Mechanics,
Yale University Press.
GRINBAUM, A. 2004 The Significance of Information in Quantum
Theory, PhD Dissertation, Ecole Polytechnique,Paris.
HAKIM, R. 1996 Introduction la mcanique statistique, Masson.
HUW, P.
-
Physique, information statistique et complexit algorithmique
22
Philosophia Scienti, 11-2 | 2007
1996 Times Arrow and Archimedes Point, New York, Oxford: Oxford
University Press.
JAYNES, E.T. 1957 Information Theory and Statistical Mechanics,
Phys. Rev., 2o , p.171 and no4 p.620. 1965 Gibbs versus Boltzmann
entropies, Amer. Journ. of Phys., Vol.23, p.391.
KOLMOGOROV, A. N. 1965 Three Approaches to the Quantitative
Definition of Information, English translation in Prob.Inform.
Transmission, Vol.1, p.1.
LANDAUER, R 1961 Irreversibility and Heat Generation in the
Computing Process, IBM J. Res. Dev., Vol.5, p.183.
LE BELLAO, M. 2005 Introduction linformation quantique,
Belin
LEFF, H.S. & REX, A. 2003 Maxwells Demon 2: Entropy,
Classical and Quantum Information, Computing, Bristol
andPhiladelphia: Institute of Physics Publishing.
LEVIN, L. A. 1976 Various Measures of Complexity for Finite
Objects Axiomatic Description, English translation,in Soviet Math.
, Dokl. Vol.17, p.522.
LI,M. & VITANYI, P. 1993 An Introduction to Kolmogorov
Complexity and its Applications, New York: Springer-Verlag.
MAXWELL, J. C. 1891 Theory of Heat, Traduction de G. Mouret: La
Chaleur, Paris: d. B. Tignol.
MORA, C. & BRIEGEL, H.J. 2004 Algorithmic complexity of
quantum states, ArXiv:quant-ph/0412172, v122 Dec2004.
VONNEUMANN, J. 1955 Mathematical Foundations of Quantum Physics,
Princeton University Press.
NIELSEN, M. A. 1998 Quantum Information Theory, PhD
Dissertation, University of Queensland. 2005 Eaters of the Lotus:
Landauer sPrinciple and the Return of Maxwell sDemon. Studies
inHistory and Philosophy of Modern Physics 36, 475-411.
PAULI, W. 1928 ber das H-Theorem vom Anwaschsen der Entropie vom
Standpunkt der neuenQuantenmechanik in Probleme des Modernen
Physik., Hirzel.
POINCAR, H. 1889 Sur les tentatives dexplication mcanique des
principes de la Thermodynamique, Compte renduhebd. de lAcadmie des
Sciences, n108, p.550.
POMERANSKY, A. A. 2004 Intrication et Imperfections dans le
Calcul Quantique, Thse de Doctorat, Universit PaulSabatier,
Toulouse.
PRIGOGINE, I. 1980 Physique, temps et devenir, Masson.
REIF, F. 1965 Statistical Physics, Berkeley Physics Course,
vol.5, Mac Graw-Hill.
SCHUMACHER, B. 1990 Information from Quantum Measurements, in
Complexity, Entropy and the PhysicsofInformation, Zurek., W.H.
(ed.), Addisson Wesley Publishing Company. 1995 Quantum Coding,
Physical Review A, vol51, 4o, p.2738.
SHANNON, CE. & WEAVER, W. 1949 The Mathematical Theory of
Communication, Ed. Urbana. University of Illinois Press.
SHENKER, O.R. 2000 Logic and Entropy,
http://philsci-archive.pitt.edu/115/.
SOLOMONOFF, R. J. 1964 A Formal Theory of Inductive Inference,
Information and Control, Vol.7, p.1.
SZILLARD, L.
-
Physique, information statistique et complexit algorithmique
23
Philosophia Scienti, 11-2 | 2007
1929 On the Decrease of Entropy in a Thermodynamic System by the
Intervention of IntelligentBeings, Zeit. Phys., Vol.53, p.840.
Traduction dans: Quantum Theory and Measurement, Wheeler J.A. and
Zurek W. H. (eds.), Princeton University Press 1983.
TIMPSON, C. G. 2004 Quantum Information Theory and the
Foundations of Quantum Mechanics, PhD Dissertation,University of
Oxford, UK. ArXiv:quant-ph/0412063 vl8 Dec2004.
VITANYI, P. 2001 Quantum Kolmogorov Complexity Based on
Classical Descriptions, IEEE Transactions onInformation Theory,
Vol.47, no6, 2464.
ZEH, H. D. 1989 The Physical Basis of the Direction of Time,
Springer-Verlag.
ZUREK, W. H. 1989 Algorithmic Randomness and Physical Entropy,
Phys. Rev., Vol.40, n40, 4731.
ZWANZIG, R. 1960 Statistical Mechanics of Irreversibility,
Boulder Lectures in Theoretical Physics, 3 , p.106.
Annexe
Appendice
Approximations relevantes : gnralisation de la mthode [Zwanzig
1960][Zeh 1989, 3.2][Balian 2005]
Il est possible de gnraliser la mthode suivie par Boltzmann,
Gibbs ou Pauli qui consiste remplacerla densit en phase classique
ou l oprateur densit quantique par une densit (ou oprateur
densit)relevant(e) dfini(e) en fonction des variables
macroscopiques que lon peut mesurer ou contrler.Pour chacune des
procdures d approximation utilises, il est en effet possible de
dfinir un oprateurde relevance Prel agissant sur la densit dtat
classique ou loprateur densit quantique exact(e)D pour calculer la
densit relevante correspondante:
Par exemple, loprateur de relevance correspondant lapproximation
du coarse graining de Gibbs(sectionI) se dfinit par:
o est la densit en phase et cg est la densit coarse-grained
dfinie comme dans la sectionI, par uneopration de moyennage sur les
cellules de lespace des phases rsultant de son dcoupage
grossier;alors que dans le cadre quantique lhypothse des phases
alatoires de Pauli se traduit par lintroductionde loprateur de
relevance Pdiag tel que:
o Ddiag est obtenu partir de loprateur densit exact D aprs
limination des termes non-diagonauxde sa reprsentation dans la base
de relevance.
Cette substitution a pour consquence que, dans le domaine
classique par exemple, la dynamiqueHamiltonienne conservative:
o L={H,.} est loprateur de Liouville, est alors remplace par une
dynamique dissipative rgissantlvolution de la densit relevante [Zeh
1989, 3.2]:
o t est la dure dvolution pour laquelle on peut considrer que
lapproximation relevante estutilisable. Par exemple, concernant
lhypothse du chaos molculaire de Boltzmann, t est le temps
-
Physique, information statistique et complexit algorithmique
24
Philosophia Scienti, 11-2 | 2007
pour lequel on peut considrer que linformation relative aux
corrlations entre molcules dues leurscollisions devient inutile
pour prdire leur volution future.
Pour chacun des concepts de relevance adopts, cest--dire pour
chacun des oprateurs Prel derelevance utiliss, une entropie
statistique relevante peut tre dfinie (disons, dans sa forme la
plusgnrale, partir de SVN ):
Contrairement lentropie dfinie laide de la densit exacte D:
lentropie relevante Srel nest pas conserve lors de lvolution
temporelle du systme:
ce qui permettrait donc de justifier le second principe de la
thermodynamique.
Notons quen pratique cette mthode est mise en application de la
faon suivante. On modlise le systme N particules par un systme
dquations intgro-diffrentielles rgissant lvolution des fonctions
derpartition n particules, pour n variant de 1 N, ces fonctions
gnralisant celle, une particule, utilisepar Boltzmann. Ce systme
dquations, appel hirarchie BBGKY, est quivalent lquation
deLiouville rgissant le comportement de la densit dtat dun systme
physique mais il se prte bienaux diffrentes approximations
relevantes permettant ltablissement dquations cintiques dcrivantune
volution irrversible. Par exemple, lapproximation de degr n
consiste ne retenir quela description en terme de densit rduite n
particules, ce qui revient ngliger toute informationrelative aux
corrlations de plus de n particules. Ces approximations permettent
alors la dfinition dunehirarchie dentropies relevantes, appeles
Srel dans le paragraphe prcdent, entropies correspondant
auxobservables que lon peut mesurer ou contrler sur ce systme
[Balian 2005, 23]. Par exemple, lquationde Boltzmann peut tre
tablie en ne retenant comme relevante que la distribution une
particuleet en remarquant que, pour un gaz trs dilu o seules les
collisions binaires peuvent tre considrescomme sources de
corrlation entre les proprits de ses composants, le temps scoulant
entre deuxcollisions successives est beaucoup plus grand que la
dure d une collision [Balian 2005, 20].
Notes
1 Nous adoptons ici une formulation standard qui mne directement
lessentiel de ce qui nousproccupe ici, savoir la possibilit de
caractriser lirrversibilit interne dun systme isol laide dela
croissance monotone dune fonction dtat, lentropie. Pour une
formulation plus dtaille du secondprincipe de la thermodynamique,
on pourra se reporter par exemple au livre de Callen [Callen
1975,section1.10].2 Une fonction dtat est une fonction des
variables (ou paramtres) macroscopiques qui dfinissentltat dun
systme, comme la pression, la temprature ou le volume. Par
consquent, la notion dentropiethermodynamique nest ici dfinie que
pour des systmes physiques pour lesquels il est possible dedfinir
un jeu de paramtres macroscopiques susceptibles de caractriser leur
tat. Cest--dire pour dessystmes ltat dquilibre thermodynamique ou,
du moins, pour des systmes dont les parties sontlocalement
lquilibre et en quilibre mutuelet dans ce dernier cas, lentropie du
systme est lasomme des entropies dfinies pour chacun des
sous-systmes (extensivit de lentropie).3 Les quations de
Hamilton-Jacobi lient les drives temporelles des coordonnes
gnralises qi et piet les drives partielles de la fonction nergie
par rapport ces mme coordonnesvoir, par exemple,[Diu et al. 1989,
AppendiceIII].4 Ce point a t soulign par de nombreux auteurs depuis
longtempsvoir, entre autres rfrences,[Costa de Beauregard 1963]
[Bitbol 1988] [Huw 1996 , chap.2] ou [Zeh 1989, chap.3]. Par
exemple,dans cette dernire rfrence, Zeh dnonce le mythe de lorigine
statistique de la flche du tempsthermodynamique (p. 38).5 Une
gnralisation de la mthode utilise par Boltzmann, Pauli ou Gibbs
(dont la propositionest rapporte ci-aprs) pour interprter le second
principe de la thermodynamique dans le cadre dela mcanique
statistique, classique ou quantique, en termes doprateurs de
relevance et dentropiesde relevances est brivement prsente dans
lappendice. Cette mthode gnrale est due Zwanzig[Zwanzig 1960] et a
t utilise et commente par plusieurs auteurs dont Zeh [Zeh 1989] et
Balian [Balian2005].
-
Physique, information statistique et complexit algorithmique
25
Philosophia Scienti, 11-2 | 2007
6 Ce point sera plus dvelopp dans la sectionIII.2.7 Notons que
la fonction de distribution N particules, (p(N), q(N), t), dfinie
dans lespace des phases 6N dimensions (voir la sectionI) concide
avec la densit de probabilit w(p(N),q(N),t)8 Notons quil a t
dvelopp par la suite plusieurs variantes de cette exprience de
pense par Szillard,Brillouin, Bennett, Zurek, Norton etc. ... afin
den permettre une discussion plus prcise (les
rfrencescorrespondantes sont celles donnes dans la bibliographie
finale).9 Notons quune illustration du mme genre, mais formul en
terme de pression, est propose et analysepar Shenker [Shenker 2000,
18].10 Par e