Superordinateur-Chine-Top500-Tianhe-2 Les leaders incontestés du secteur restent la Chine et les États-Unis, chacun disposant de 171 superordinateurs dans le TOP 500, un classement toujours dominé par le Sunway TaihuLight chinois, qui monte à 125 pétaflops par seconde grâce à 10,6 millions de cœurs ! Crédit : presse-citron.net
-Nous percevons notre monde et ses mécanismes d’une certaine façon. Les scientifiques, les mathématiciens, les informaticiens et les chercheurs puisent dans des théories, dans des calculs et des faits pour valider ou non une théorie ou pour activer tout simplement une orientation précise pour la recherche, mais aussi pour réaliser certaines applications qui aboutissent à un bon technologique exponentiel .
Dans la physique ,parmi les thèses des uns et des autres , il est très difficile de comprendre pour beaucoup de personnes certains rouages même de base fondamentale qui aide à comprendre , à décrypter certains articles.
L’ordinateur quantique est l’une des applications mais comment le décrire exactement ?
Ci-dessous un article relativement simple à lire doit nous aider pour comprendre ce qu’est un ordinateur quantique .
Pour celles et ceux qui ont une base assez poussée je voulais proposer un support.
C’est alors que j’ai mis la main sur un document au format PDF qui peut nous aider d’une certaine manière lorsque le sujet de mécanique quantique pointe le bout de son nez.
Alors étudions grâce à ce document ci-dessous de 52 pages réalisé parJean Bricmont, né le 12 avril 1952 à Uccle, un physicien et essayiste belge, professeur émérite de physique théorique à l’université catholique de Louvain et membre depuis 2004 de l’Académie royale de Belgique.
Matisse sylvain pour
La mecanique quantique pour non-physiciens
Document PDF – crédit : Jean Bricmont UCL-FYMA Chemin du Cyclotron 2 B-1348 Louvain-la-Neuve (Belgium)
Cliquez sur l’image PDF pour accéder au document .
Mise à jour investigations ufoetscience, le : 18/09/2018 à : 15h30.
Excitonium : cette nouvelle forme de matière vient d’être confirmée par les physiciens .
Article source: trustmyscience.com/
Stéphanie Schmidt
Depuis les années 1970, les scientifiques cherchent à prouver l’existence de cette étrange forme de matière qu’est l’excitonium. Mais à présent, des chercheurs de l’Université de l’Illinois ont annoncé une nouvelle passionnante : la toute première observation expérimentale de cette nouvelle forme de matière.
Ce matériau est composé d’une particule composite qui pourrait permettre à la matière d’agir comme un superfluide, un supraconducteur ou même comme un cristal électronique isolant. Le professeur de physique Peter Abbamonte et son équipe ont travaillé avec des collègues de l’Illinois, de l’Université de Californie, de Berkeley et de l’Université d’Amsterdam pour prouver une fois pour toutes, l’existence de ce type de matière mystérieuse et théorisée depuis plus de 50 ans.
L’excitoniumest un condensé composé d’excitons (des quasi-particules que l’on peut voir comme une paire électron-trou), qui sont donc ce que vous obtenez lorsque vous combinez des électrons échappés et les « trous » qu’ils ont laissé derrière eux. Cette combinaison mécanique-quantique est possible car, dans les semi-conducteurs, les électrons situés à la limite d’un niveau d’énergie autour d’un atome sont capables, lorsqu’ils sont excités, de sauter au niveau d’énergie suivant, laissant un « trou » au niveau précédent.
Ce trou agit alors comme une particule chargée positivement, attirant l’électron chargé négativement qui s’est échappé.
C’est au cœur d’un dichalcogénure de métal de transition (le diséléniure de titane) que les chercheurs ont pu observer l’existence des excitons pour la toute première fois. L’équipe de chercheurs a même réussi à reproduire les résultats cinq fois, et séparément.
Jusqu’à présent, les scientifiques n’avaient pas les outils expérimentaux nécessaires pour distinguer avec certitude s’ils détectaient l’excitonium ou une autre phase similaire de la matière. Cependant, en utilisant une nouvelle technique, l’équipe de recherche a pu mesurer pour la toute première fois et de façon définitive, les excitations collectives des particules bosoniques de basse énergie, des électrons appariés et des trous, quel que soit leur dynamisme.
En d’autres termes, il s’agit de la toute première observation d’une phase de plasmon souple, qui est le précurseur de la condensation d’excitons. « Depuis que le terme « excitonium » a été inventé dans les années 1960 par le physicien théoricien de Harvard, Bert Halperin, , les physiciens ont cherché à démontrer son existence. Les théoriciens ont débattu pour savoir si ce serait un isolant, un conducteur parfait ou un superfluide – avec des arguments convaincants de tous les côtés », explique Abbamonte.
« Depuis les années 1970, de nombreux expérimentateurs ont publié des preuves de l’existence de l’excitonium, mais leurs résultats ne faisaient pas office de preuve définitive et pouvaient également être expliqués par une transition de phase structurelle classique », a-t-il ajouté.
Maintenant qu’il a été prouvé que l’excitonium existe et a été concrètement observé de manière expérimentale, ses propriétés peuvent être explorées plus en détail et appliquées. Les chercheurs étudient les possibles applications pratiques liées à cette découverte.
En tant que supraconducteur et superfluide, ce matériau pourrait être utilisé pour faire progresser les technologies existantes par exemple. Mais bien entendu, ces applications, en particulier celles qui concernent les technologies pratiques, sont purement spéculatives à ce stade.
Il est encore impossible de prédire exactement ce que l’avenir pourrait réserver à l’excitonium, mais les chercheurs restent convaincus que cette découverte permettra de mettre en lumière certains des mystères de la mécanique quantique.
Une nouvelle méthode pour tester directement la gravité quantique
Article source: trustmyscience.com
Thomas Boisson,
L’unification de la relativité générale et de la mécanique quantique est un des enjeux primordiaux de la physique moderne. Ces dernières années, de nombreuses théories à gravité quantique ont progressivement émergé parmi lesquelles la théorie des supercordes, la gravitation quantique à boucles ou encore la géométrie non commutative.
Cependant, si les théories sont de plus en plus pointues, la technologie quant à elle ne permet toujours pas d’offrir les cadres expérimentaux nécessaires pour tester celles-ci. Les conditions expérimentales requises pour procéder à ces tests sont extrêmement difficiles à réunir, les effets de la gravité quantique n’apparaissant qu’à des échelles de l’ordre de la longueur de Planck (soit 1.6×10-35 m) et requièrent donc de très hautes énergies.
Schéma présentant différents niveaux d’énergie d’évolution croissante. L’échelle de Planck, accessible à une énergie de 1019 GeV, est encore bien loin de l’énergie (14 TeV) déployée actuellement par le LHC. Crédits : writeopinions.com
Ces niveaux d’énergie se situent bien au-delà de l’énergie actuellement accessible par les accélérateurs de particules ; par exemple, l’énergie nécessaire pour observer l’échelle de Planck est environ 15 fois plus élevée que celle que le LHC est capable d’atteindre. Pour contourner cette insuffisance technologique, une équipe internationale de physiciens a récemment proposé un protocole permettant de tester la gravité quantique au moyen de notre technologie actuelle.
La non commutativité de l’espace-temps : un paramètre testable de la gravité quantique
Pour le moment, ni les énergies accessibles au sein des accélérateurs de particules, ni les observations astrophysiques ne permettent d’étudier la gravité quantique. Pour autant, les chercheurs ne sont pas piégés dans une voie sans issue. En effet, dans une récente étude publiée dans le journal Nuclear Physics B(1), une équipe internationale de physiciens propose de tester directement un paramètre intrinsèque à toute théorie de la gravité quantique : la non commutativité.
1. La commutativité en mécanique quantique
En mécanique quantique, lorsque l’on décrit un système quantique (comme une particule), l’on utilise une fonction d’onde, c’est-à-dire un outil mathématique contenant les propriétés du système étudié. Cette fonction d’onde contient les différentes caractéristiques du système : énergie, position, spin, vitesse, orientation, etc. Ces caractéristiques sont appelées des « observables » et correspondent donc à des grandeurs physiques mesurables.
Cependant, en mécanique quantique, l’on ne manipule pas directement ces grandeurs ; à la place, on leur assigne ce que l’on appelle des « opérateurs quantiques ». Ces opérateurs sont simplement des objets mathématiques formalisant/représentant les observables. Il y a ainsi l’opérateur position, l’opérateur vitesse, l’opérateur spin… Ce sont donc ces opérateurs qui sont utilisés pour décrire le système.
La relation qu’entretiennent les différents opérateurs entre eux peut être décrite à l’aide d’un paramètre particulier : la commutativité. La commutativité indique s’il est possible de mesurer simultanément deux grandeurs ou non. Ainsi, si deux opérateurs sont commutatifs, les grandeurs qu’ils représentent peuvent être mesurée simultanément. Au contraire, s’ils ne sont pas commutatifs (non commutatifs), alors les deux grandeurs représentées ne peuvent pas être mesurées simultanément.
Mathématiquement, on parle du commutateur entre deux opérateurs. Pour deux opérateurs A et B, le commutateur s’écrit [A,B] = AB-BA. L’essentiel à retenir ici est que si le commutateur est nul, alors les deux opérateurs sont commutatifs. A l’inverse, si le commutateur est non-nul, alors les deux opérateurs sont non commutatifs. Deux opérateurs non commutatifs sont appelées des « observables complémentaires » ou des « variables conjuguées ».
Calcul du commutateur entre les opérateurs position et quantité de mouvement. Le commutateur est non-nul, les deux opérateurs sont non commutatifs. La position et la quantité de mouvement ne peuvent donc pas être mesurées simultanément. Crédits : Wikipédia
Un exemple célèbre d’opérateurs non commutatifs est donné par le principe d’indétermination d’Heisenberg. Ce principe énonce que, pour une particule, il est impossible de mesurer simultanément avec une précision identique sa position et sa quantité de mouvement. En d’autres mots, l’opérateur position « x » et l’opérateur quantité de mouvement « p » d’une particule sont non commutatifs.
2. La non commutativité dans les théories à gravité quantique
La plupart des théories à gravité quantique actuelles sont axées sur la non commutativité (2) et font de celle-ci un paramètre essentiel dans la description de l’espace-temps (3, 4, 5). Par exemple, en théorie des cordes, la plus petite longueur d’espace mesurable correspond à la longueur d’une corde. En dessous de cette longueur, l’espace-temps n’existe plus. Cela est dû à la non commutativité de certains opérateurs décrivant l’espace-temps (6).
Dans les théories à gravité quantique, l’espace-temps possède donc une structure non commutative ; l’on parle également de géométrie non commutative. Une telle structure non commutative implique des conséquences directes à l’échelle cosmologique. Ainsi, dans les théories à gravité quantique, la non commutativité permet de faire disparaître les singularités gravitationnelles, de préciser la topologie de l’espace-temps durant l’ère de Planck ou encore de mieux comprendre la véritable nature des trous noirs.
En bombardant une feuille de zinc avec des noyaux atomiques, des physiciens américains ont mesuré le temps qu’il faut aux protons et aux neutrons pour se réorganiser.
0,3 millième de milliardième de milliardième de seconde, autrement dit, 0,3 zeptoseconde : c’est le temps nécessaire à un mélange de protons et de neutrons, les briques élémentaires des noyaux atomiques, pour s’organiser et atteindre leur point d’équilibre.
Van Nieuwenhuizen, l’un des créateurs des théories de supergravité. Crédit : Eric Michelson
Article source: technofuture
mardi 20 octobre 2015
(Repris du site futura-sciences publié le:
Le 25/05/2009)
Comprendre l’origine de l’Univers et le destin de la matière tombant dans un trou noir nécessite une théorie quantique de la gravitation. Découverte dans la seconde moitié des années 1970, la supergravité offrait l’espoir d’une telle théorie mais les physiciens l’ont abandonnée au début des années 1980. Certains résultats récents pourraient la remettre en selle..
Lorsque le champ de gravitation est fort, comme c’est le cas pour une étoile à neutron dont 1 cm3peut peser des millions de tonnes ou pour des trous noirs de masse stellaire, la théorie de la relativité d’Einstein devient indispensable. Elle l’est également lorsqu’il s’agit de considérer l’Univers à grande échelle dont le rayon observable dépasse aujourd’hui les 46 milliards d’années-lumière. Mais pour pénétrer dans les entrailles des protons, dont la taille est d’environ 10-15 mètre, les lois de la mécanique quantique deviennent incontournables. A priori, ces deux domaines de la physique relevant l’un de l’infiniment grand et l’autre de l’infiniment petit ne se recoupent pas.
crédit illustration: technofuture
Cette conclusion est fausse. Lorsque l’Univers observable était jeune et qu’il possédait une taille inférieure à celle d’un proton, sa formidable densité et l’extrême intensité du champ de gravitation ne peuvent être comprises sans une théorie quantique de la gravitation combinant les de la relativité générale avec celles de la mécanique quantique. Malheureusement, les calculs font intervenir des quantités croissant sans limites, ce que l’on appelle des divergences infinies.
En 1976, un groupe de physiciens, Daniel Z. Freedman, Peter van Nieuwenhuizen et Sergio Ferrara, de l’Université de Stony Brook, découvrirent une merveilleuse généralisation de la théorie de la relativité générale qu’ils baptisèrent la supergravité. Comme on ne tarda pas à le découvrir, cette théorie pouvait en fait exister sous différentes formes et en plusieurs dimensions d’espace. Mathématiciens et physiciens s’unirent pour classifier les différentes théories possibles car, comme ils le découvrirent rapidement, certaines de ces théories ne souffraient pas des problèmes de divergences infinies, au moins lorsqu’on ne poussait pas trop loin les calculs.
illustration crédit: technofuture
Une classe de théorie en 4 dimensions retint particulièrement l’attention des chercheurs pendant un temps. Il existe en gros 4 classes de théories de supergravité selon que l’on considère 1, 2, 4 et enfin 8 opérations mathématiques ressemblant à des rotations autour d’un axe. On y parle alors de générateurs de supersymétrie. La théorie considérée par les chercheurs est celle dite N=8, avec donc 8 générateurs de supersymétrie.
Une théorie unifiée de la matière et des interactions ?
Au début des années 1980, Stephen Hawking se demandait si cette théorie, dont l’exploration commençait, pouvait être, en plus d’une théorie de gravitation quantique, une théorie unifiée de la matière et de toutes les interactions.
Dans le cadre des théories dites supersymétriques, et la supergravité n’en est qu’un exemple parmi d’autres, les particules de matière comme les électrons et les quarks, peuvent être unifiées avec les particules transportant les forces, comme les photons et les bosons Z et W, ou encore les gluons.
Si l’on veut se faire une idée de la supersymétrie, on peut prendre l’exemple des vecteurs dans le plan. Il n’est pas possible de prendre la racine carrée d’un vecteur de prime abord, mais si l’on décrit un tel vecteur comme un nombre complexe, alors cela ne pose plus aucun problème. Si l’on veut généraliser la notion de nombre complexe à l’espace, plus précisément à l’espace-temps de la relativité, il s’introduit naturellement des sortes de racines carrées des vecteurs de l’espace-temps que l’on appelle des spineurs.
croquis crédit: technofuture
Les particules de matière comme les neutrinos et les quarks sont décrites par des spineurs alors que les gluons et les photons par des vecteurs. C’est une autre façon de dire que les particules de matière sont des fermions alors que les particules médiatrices des forces sont des bosons.
Dans le cadre de la supersymétrie, il est possible de considérer une sorte de super-espace dans lequel les bosons et les fermions sont des composantes d’une sorte de super vecteur qui peut tourner autour de l’analogue d’axes dans l’espace. De cette façon, fermions et bosons deviennent inséparables et à chacune des particules connues dans le modèle standard des interactions correspond un superpartenaire. Ainsi, aux quarks fermioniques sont associés des bosons, les squarks, et aux gluons et photons bosoniques sont associés des gluinos et des photinos, qui sont des fermions.
Les particules et leurs partenaires supersymétriques. Cliquer pour agrandir. Crédit : University of Glasgow
Il se trouve que la supersymétrie conduit naturellement à considérer une généralisation de la théorie d’Einstein, cette dernière, même, s’en déduit. La différence est que l’analogue du photon des ondes électromagnétiques devient pour les ondes gravitationnelles, dont on a des preuves indirectes avec l’étude des pulsars, une particule bosonique que l’on appelle le graviton, qui n’est pas un vecteur mais un tenseur. Il existe cependant un superpartenaire associé au graviton et qui est un fermion, le gravitino.
illustration: premier plusar double crédit: technofuture
Cette situation est celle de la théorie à un seul générateur de supersymétrie. Dans le cas avec 8 générateurs, les divergences infinies de la gravitation quantique que l’on connaissait dans certains calculs disparaissaient. De plus, la théorie incorporait un grand nombre de nouvelles particules qui ressemblaient aux particules du modèles standard et surtout, elles étaient suffisamment nombreuses pour pouvoir peut-être correspondre à toutes celles que l’on connaissait alors.
L’espoir du début des années 1980 était donc que si l’on savait faire correctement tous les calculs dans la théorie de supergravité, non seulement on pourrait en déduire le modèle standard mais on finirait aussi par prouver que toutes les divergences infinies disparaissaient dans tous les calculs possibles. Le prix Nobel Murray Gell-Mann était par exemple parvenu à dériver l’existence de fermions qui possédaient les mêmes charges fractionnaires que les quarks.
Murray_Gell-Mann photo crédit: technofuture
Hélas, assez rapidement, on découvrit que la supergravité N=8 était désespérément rebelle à la présence de neutrinos et d’électrons violant la parité comme dans le modèle des interactions électrofaibles. Pire, les méthodes habituelles utilisées pour étudier l’apparition des divergences infinies dans les calculs de théorie quantique des champs n’étaient pas très optimistes quant à la disparition des quantités infinies en supergravité lorsque l’on poussait suffisamment loin la précision des calculs.
En 1984, les calculs de Michael B. Green et John H. Schwarz effectués dans le cadre de la théorie des supercordes portèrent un coup presque fatal à la théorie. En remplaçant les particules par des cordes et en augmentant jusqu’à 9 le nombre de dimensions de l’espace, on découvrit que l’on pouvait obtenir les électrons et les neutrinos du modèle standard tout en ayant une théorie de gravitation quantique finie.
les « cordes »
La théorie des supercordes est-elle vraiment incontournable ?
La situation est peut-être en train de se retourner depuis quelque temps. D’abord la théorie des cordes elle-même se révéla être un assemblage de 5 théories possibles et non pas une seule. Ensuite, on découvrit au début des années 1990 que ses 5 théories devaient être des cas particulier d’une théorie à 11 dimensions d’espace-temps faisant intervenir non plus des cordes mais des membranes. Or, à basse énergie en 11 dimensions la nouvelle théorie baptisée théorie M donne l’unique théorie de supergravité N=1 et des membranes. Compactée à la Kaluza-Klein en 4 dimensions, elle donne précisément la théorie de supergravité N=8.
schéma crédit: technofuture
On comprend donc pourquoi, depuis quelques années, la question de l’apparition réelle de divergences infinies dans la supergravité D=4 et N=8 (où D est le nombre de dimensions de l’espace-temps) est examinée a nouveau. Si l’on en croit les travaux de chercheurs comme Michael Green, Pierre Vanhove et plus récemment Zvi Bern et Lance Dixon, certaines des divergences que l’on croyait devoir apparaître en supergravité N=8 au début des années 1980 lorsque l’on serait capable de pousser les calculs quelques crans plus loin… ne sont tout simplement pas là !
Il se pourrait donc bien qu’une théorie de supergravité pure en 4 dimensions, celle avec N=8, soit non seulement finie mais contienne effectivement le modèle électrofaible avec violation de la parité. La théorie des cordes n’est peut-être pas nécessaire après tout…
Mise à jourinvestigations ufoetscience, le: 20/10/2015 à 14h05.
Le 30/01/2014 à 17:32 – Par Laurent Sacco, Futura-Sciences
Stephen Hawking avait déjà fait sensation il y a 40 ans en annonçant que les trous noirs ne piégeaient pas de l’énergie pour toujours et qu’ils pouvaient s’évaporer. Il s’agissait d’une conséquence des lois de la mécanique quantique. Il jette à nouveau le trouble en suggérant que les trous noirs n’existent pas. Mais est-ce vraiment ce qu’il affirme ? L’information ayant suscité des réactions et des affirmations parfois fantaisistes, la réponse mérite une analyse fine…
Crédit image : Sciences et avenir
Stephen Hawking vient de réaliser un nouveau coup d’éclat médiatique dont il a le secret. On se souvient par exemple il y a quelques années des remous qu’il avait causés avec le boson de Brout-Englert-Higgs. Ses travaux sur la théorie des trous de ver l’avaient conduit à douter de la possibilité de découvrir cette fameuse particule au LHC. Il avait donc parié avec le physicien Gordon Kane qu’on ne l’observerait pas.
Cette année, deux semaines après son anniversaire, Hawking a déposé sur arxiv un article court et sans équations dans lequel il semble affirmer que les trous noirs n’existent pas. En réalité, le contenu de cet article a déjà été exposé sur Skype en août 2013, devant ses collègues, lors d’un colloque du Kavli Institute for Theoretical Physics, à Santa Barbara (Californie). Il concerne une solution à une énigme découverte il y a environ deux ans par Ahmed Almheiri, Donald Marolf, Joseph Polchinski et James Sully (AMPS) en réfléchissant au fameux paradoxe de l’information avec les trous noirs. Il s’agit donc d’un nouveau rebondissement dans la saga du problème du corps noir, liant de façon étroite la mécanique quantique, la relativité générale et la thermodynamique.
Les travaux de Hawking sur la théorie des trous noirs, aussi bien du point de vue de la relativité générale classique qu’en utilisant les lois de la mécanique quantique, sont au cœur du paradoxe découvert par AMPS. Quelques rappels sur la théorie classique et quantique des trous noirs sont indispensables pour comprendre en quoi consiste ce paradoxe. Ils permettent aussi de prendre du recul par rapport aux déclarations récentes de Stephen Hawking.
L’effondrement gravitationnel des étoiles
Pendant longtemps, la communauté scientifique n’a pas pris au sérieux l’existence des objets que l’on appelle aujourd’hui des trous noirs, et qui étaient prédits par les équations de la relativité générale d’Einstein. Les choses ont commencé à changer quand au début des années 1960, une équipe aux États-Unis (un trio de physiciens qui avaient été impliqués dans la conception de la bombe H états-unienne) s’est attelée à un problème de simulation numérique bien précis. Michael Mayn, Richard White et Stirling Colgate ont mis à profit les compétences qu’ils avaient acquises en physique nucléaire, mécanique des fluides et théorie du transfert radiatif pour simuler surordinateur l’implosion d’une étoile de façon réaliste. Il s’agissait de vérifier les conclusions découlant des calculs simplifiés conduits par Robert Oppenheimer et Hartland Snyder à la fin des années 1930.
Presque au même moment, dans l’ex-URSS, l’un des concepteurs de la bombe H soviétique, le grand Yakov Zel’dovich, lance trois de ses collègues sur le même problème. Les deux équipes ont abouti à des résultats identiques. Au-dessus d’une certaine masse, rien ne peut plus stopper la contraction gravitationnelle d’une étoile, qui finit par franchir une surface sphérique dont la taille est donnée par le rayon de Schwarzschild. L’état final de la matière sous cette surface restait cependant problématique. Les calculs menés avec la relativité générale semblaient impliquer que la courbure de l’espace-temps augmentait en même temps que la densité de la matière pour finir par atteindre une valeur infinie : une singularité.
En 1965, le mathématicien Roger Penrose démontra que ce devait bien toujours être le cas dans le cadre de la relativité générale classique. Il suffisait de postuler des conditions très plausibles concernant l’état de la matière sous la surface, que l’on appelle maintenant l’horizon des événements, c’est-à-dire une région de l’espace-temps dont on ne peut s’échapper même à la vitesse de la lumière.
Trou noir et horizon des événements
Il était déjà clair à ce moment-là, notamment pour le grand John Wheeler, qu’avant d’atteindre la courbure infinie prédite par le théorème de singularité de Penrose, la mécanique quantique devait entrer en ligne de compte au niveau de l’espace-temps lui-même. Elle devait probablement supprimer la singularité, comme elle avait stoppé l’effondrement des électrons sur le noyau de l’atome dans le modèle de Rutherford.
Du point de vue de la relativité générale, on pouvait développer une théorie précise des singularités gravitationnelles, mais nul doute que l’état final de l’implosion d’une étoile ne serait connu que lorsqu’on disposerait d’une théorie quantique de la gravitation et même d’une théorie unifiée des forces et de la matière. En pratique, l’espace-temps d’une étoile s’effondrant, ou de toute autre masse de matière suffisamment comprimée, évoluait jusqu’à un état d’équilibre final identique pour un observateur extérieur à ce qu’on appelle la solution de Schwarzschild décrivant un trou noir statique et éternel. La singularité centrale de cette solution devait être une description idéalisée et non physique d’une région extrêmement dense dominée par des effets quantiques.
On pouvait donc se contenter de développer pour l’astrophysique une théorie des astres complètement effondrés gravitationnellement en se basant sur la solution idéalisée de Schwarzschild. On avait donc défini ce qui est maintenant appelé un trou noir non par le fait qu’il contiendrait une vraie singularité de l’espace-temps et des équations décrivant le comportement de la matière, mais par l’existence d’un horizon des événements. Stephen Hawking, notamment, s’est beaucoup appuyé sur les propriétés de la surface que constitue l’horizon des événements pour explorer la physique des trous noirs. Cette surface définissant une région dont plus aucune information ne peut émerger en physique classique, on peut lui associer une entropie, puisque, en pratique ou de manière absolue, elle rend indisponible pour un observateur extérieur l’information contenue dans un objet ayant traversé l’horizon.
Des trous noirs quantiques qui rayonnent
Toutefois, au voisinage de l’horizon, comme partout dans le vide, des paires de particules apparaissent et disparaissent du fait des lois de la mécanique quantique. Les forces de marée exercées par le trou noir peuvent séparer ces particules, de sorte que l’une tombe parfois dans le trou noir et l’autre s’échappe vers l’infini. L’énergie utilisée pour séparer ces paires étant prise au trou noir, sa masse diminue et cette perte se retrouve associée à l’énergie portée par la particule rayonnée par le trou noir. Comme Hawking allait le montrer pendant les années 1970, tout se passe donc comme si un trou noir se mettait à rayonner comme un corps noir en s’évaporant. Le rayonnement thermique du corps noir étant très désordonné, l’évaporation d’un trou noir semblait détruire de l’information. L’énergie d’un livre jeté dans un trou noir finirait par en ressortir, mais l’information qu’il portait serait perdue à jamais du fait de l’existence d’un horizon des événements.
Pour Leonard Susskind et Gerard ‘t Hooft, cela devait être impossible, car cela conduisait à violer les lois de la mécanique quantique. Hawking en était bien conscient et il pensait justement avoir découvert une clé pour aller au-delà de ces lois. Mais pendant les années 1990, la seconde révolution de la théorie des cordes, et notamment la fameuse correspondance AdS/CFT (encore appelée conjecture de Maldacena) allait changer tout cela. Confirmant l’idée de ‘t Hooft et Susskind qu’une théorie de la gravitation quantique devait faire apparaître des phénomènes ressemblant à ceux associés à des hologrammes, cette correspondance impliquait avec force que les lois de la mécanique quantique étaient bien respectées par l’évaporation d’un trou noir. On pouvait considérer d’une certaine façon que les paires de particules à l’origine de l’évaporation d’un trou noir étaient intriquées. De sorte que l’information initialement contenue par celui-ci était, grâce à l’intrication quantique, tout de même libérée et présente dans le rayonnement, bien que celui-ci apparaisse très désordonné pour un observateur extérieur.
Revenons maintenant vers le paradoxe découvert par Ahmed Almheiri, Donald Marolf, Joseph Polchinski et James Sully. Il est connu depuis environ deux ans sous le nom de controverse du «pare-feu » (firewall en anglais). Il fait toujours l’objet de nombreuses discussions entre physiciens théoriciens, car il en rend perplexes plus d’un qui avouent être plutôt dans la confusion à son sujet.
Des particules maximalement intriquées
Pour le comprendre, il faut savoir qu’il existe différents degrés d’intrication quantique entre systèmes physiques. Il y a notamment ce qu’on appelle l’intrication maximale, qui affirme que lorsque deux systèmes sont maximalement intriqués, on ne peut plus les intriquer avec un troisième. Rien n’interdit une intrication entre plus de deux systèmes, mais elle n’est alors plus maximale. La mécanique quantique implique que si on attend suffisamment longtemps, une durée appelée le temps de Page (en référence au physicien Donald Page), le rayonnement passé émis par un trou noir avant ce temps sera maximalement intriqué avec le rayonnement émis après ce temps.
Si un objet est jeté dans le trou noir après ce temps de Page, il devrait aussi être intriqué avec le rayonnement passé et futur du trou noir en contradiction avec le fait qu’ils sont déjà maximalement intriqués. Si l’on refuse de modifier les lois de la mécanique quantique, il semble qu’il faille interdire à l’objet de pénétrer dans le trou noir.
Un pare-feu en contradiction avec la relativité générale
AMPS est arrivé à la conclusion que juste au niveau de l’horizon d’un trou noir, l’objet en chute libre devait rencontrer un intense flux d’énergie, un pare-feu, le mettant en pièces et l’empêchant de pénétrer dans le trou noir. Ce scénario pose problème : pour des trous noirs d’assez grande taille, comme un trou noir supermassif contenant des milliards de masses solaires, il n’y a aucune raison pour qu’un observateur en chute libre remarque quoi que ce soit au voisinage de l’horizon. Les forces de marée sont très faibles et il n’y a pas de rayonnement quantique pour un tel observateur en chute libre. Qui plus est, un tel trou noir apparaît comme très froid pour un observateur extérieur même, dans cette situation, au temps de Page. C’est en réalité une conséquence du principe d’équivalence de la relativité générale, sur lequel elle repose lourdement. Le message semble clair : si on refuse de toucher à la théorie quantique, il faut un pare-feu, mais celui-ci entre en contradiction avec la relativité générale…
Voilà l’endroit où nous allons rejoindre Stephen Hawking… Si on ne change par les principes de la mécanique quantique et qu’on ne touche pas à ceux de la relativité générale, il faut peut-être modifier légèrement la théorie des trous noirs. Hawking propose donc de remettre en cause le caractère absolu de l’horizon des événements, ce qui permettrait de se passer d’un pare-feu tout en conservant les lois de la mécanique quantique. En pratique, l’horizon ne définirait pas une région dont la lumière ne pourrait pas s’échapper, mais une région où elle serait piégée comme la matière pendant un temps assez long.
Hawking ne rejette donc pas en bloc ses travaux ni les trous noirs, il parle de l’existence d’un horizon apparent, effectif, comme l’est la description continue d’un fluide par les équations de Navier-Stokes. Hawking propose d’ailleurs de reconsidérer un trou noir comme une sorte d’état lié du champ de gravitation, turbulent et chaotique. La perte apparente d’information donnant lieu à l’existence d’une entropie associée à la surface définie par l’horizon des événements serait donc analogue à celle connue en physique classique pour une collection de particules, un artefact d’une description macroscopique simplifiée.
Chaos, turbulence et trous noirs
L’article de Hawking laisse ses collègues quelque peu perplexes, et même dubitatifs, même si Hawking fait bien allusion à la correspondance de Maldacena posant qu’à la frontière d’un espace-temps AdS, un fluide quantique, ressemblant à un plasma de quarks et de gluons(conformément au principe holographique) reflète le comportement d’un trou noir en train de s’évaporer. Elle suggère que l’effondrement chaotique de la matière donnant un trou noir serait relié à un état turbulent de ce fluide. Mais cette connexion reste floue dans les propos de Hawking.
Lorsqu’il parle d’un état chaotique classique de l’espace-temps et de la matière sous l’horizon apparent d’un trou noir, on peut se demander s’il n’a pas en tête une connexion explorée depuis quelques années entre la théorie des trous noirs et celle des fluides turbulents. Il s’agit de lacorrespondance fluide-gravité, qui utilise la correspondance AdS/CFT pour traduire des problèmes de la dynamique des fluides en problèmes de relativité générale.
Ce qui est sûr, c’est que Stephen Hawking compare la perte effective d’information et de prédictibilité dans un trou noir avec l’impossibilité de prédire la météo à long terme. En principe, nous dit la physique classique, le fluide que constitue l’atmosphère a un comportement déterministe, mais en pratique, on perd rapidement de l’information sur lui et on ne peut plus faire de prédictions précises. On pourrait donc, par analogie, concevoir un trou noir comme une boule de fluide très dense, chaotique et turbulente, mais qui finit par s’évaporer.
Les nouveaux trous noirs, des boules de supercordes ?
Une telle description n’est pas radicalement nouvelle. John Wheeler utilisait dès les années 1950 et 1960 des images issues de l’hydrodynamique pour se représenter la physique de l’espace-temps. On peut penser aussi au paradigme de la membrane développé pendant les années 1970 et 1980 par Kip Thorne et Thibault Damour. En effet, pour les besoins de l’astrophysique, par exemple pour étudier les quasars, on peut remplacer la description d’un trou noir avec son horizon par celle d’une sorte de bulle de fluide visqueux douée de propriétés électriques et thermodynamiques. On n’a pas à se soucier de ce qu’il y a à l’intérieur de cette bulle, qui se comporte donc comme un horizon apparent.
On peut finalement se demander si la solution que propose Hawking au paradoxe du pare-feu mis en évidence par AMPS n’a pas déjà été donnée dans le cadre de la théorie des cordes par le physicien théoricien Samir Mathur de l’université d’État de l’Ohio. Il a proposé voilà une dizaine d’années que les trous noirs étaient des sortes de « pelotes de cordes » qu’il a baptisées des « fuzzballs » en anglais. Selon ses calculs, en tenant compte du fait que les particules seraient en réalité des cordes, une fois qu’elles ont pénétré dans un trou noir, elles se mettraient en quelque sorte à s’étaler jusqu’à occuper tout l’intérieur de la région sous l’horizon d’un trou noir. Si le trou noir est petit, l’image qui émerge est celle d’une sorte d’équivalent d’une étoile à neutrons très dense, mais cette fois constituée de cordes quantiques. L’essentiel de ce que contient la théorie standard des trous noirs serait conservé, mais l’horizon des événements serait bien effectif, apparent, exactement comme le propose Hawking. Mathur vient d’ailleurs de publier récemment des articles dans lesquels il affirme que si la description des trous noirs en termes de fuzzballs est bien correcte, on conserve la thermodynamique des trous noirs standard et la théorie quantique tout en résolvant le paradoxe de l’information et sans avoir besoin de pare-feu.
Une chose est sûre : les trous noirs sont encore loin d’avoir fini de susciter des énigmes, et ils sont une extraordinaire fenêtre sur la physique la plus fondamentale de l’univers.