Dossier La mystérieuse énergie noire

 

Sommaire

  1. La mystérieuse énergie noire
  2. La découverte de l'énergie noire
  3. La pire prédiction jamais faite par la physique théorique
  4. Énergie noire et champs de Higgs
  5. Énergie noire, théorie des supercordes et paysage cosmique
  6. Énergie noire et théories tenseur-scalaire
  7. Énergie noire et particules caméléons
  8. Énergie noire et homogénéité de l'univers
  9. Énergie noire et scénario du vide minimal
  10. Énergie noire et futur de l'univers

 

 

 

 

1) La mystérieuse énergie noire

La découverte imprévue de l’expansion accélérée de l’univers en 1998 a nécessité de reconsidérer une vieille énigme de la physique et de la cosmologie, remontant aux travaux d’Einstein : celle de laconstante cosmologique.

Étroitement liée à la notion d’énergie du vide quantique, l'expansion accélérée impliquerait que plus de 70 % du contenu de l’univers est sous forme d’une énergie inconnue. Face à cette énergie inconnue, celle équivalent à la masse de la matière composant les étoiles et les cellules de notre corps apparaît comme une quantité presque négligeable. Cette énergie mystérieuse, signalant peut-être une nouvelle physique au-delà dumodèle standard, a reçu le nom d’« énergie noire » (Dark energy en anglais). 

Plusieurs explications théoriques ont été proposées à son sujet et ce dossier a pour but de passer en revue certaines d’entre elles, parmi les plus prometteuses. Pour cela, Futura-Sciences a interviewé l’un des grands spécialistes français de ces théories, Philippe Brax, qui a bien voulu nous faire bénéficier de ses l umières en répondant à nos questions.

Part relative de l'énergie noire dans l'universpt-loupe.gif
Un schéma montrant la part relative de l'énergie noire (dark energy) dans l'univers. Son estimation varie mais on donne généralement une valeur légèrement supérieure à 70 %. La matière normale ne compterait que pour 4 % environ dans le contenu énergétique de l'univers observable, le reste étant de la matière noire (dark matter) © Nasa CXC M.Weiss

Comprendre la nature de l’énergie noire n’est pas seulement une nécessité pour qui veut expliquer l’histoire passée du cosmos, elle est également une clé pour connaître sa destinée. En effet, selon sa nature, l’univers finira ou non par un Big Crunch.

 

En 1998, deux équipes d’astrophysiciens menées respectivement par Saul Perlmutter et Adam Riess, firent une découverte qui allait révolutionner la cosmologie et déclencher d’intenses débats dans le milieu de la physique théorique, notamment dans le domaine spéculatif de la théorie des supercordes.

Alors que la théorie standard du Big Bang, couplée aux observations faites jusque là, prévoyait un ralentissement de l’expansion de l’univers, celle-ci semblait s’être accélérée depuis quelques milliards d’années.

La supernova SN 1994d dans la galaxie NGC 4526pt-loupe.gif
La supernova SN 1994d dans la galaxie NGC 4526. © Nasa/EsaThe Hubble Key Project TeamThe High-Z Supernova Search Team.

Pour faire cette découverte, les astrophysiciens avaient patiemment cherché à détecter la lumière émise par l’explosion de supernovae de type SN Iadans des galaxies situées à plusieurs milliards d’années-lumière de la Voie lactée. Ces supernovae SN Ia, dont on pense qu’elles résultent en majorité de l’explosion de naines blanches accrétant de la matière d’une étoilecompagne et atteignant presque la masse de Chandrasekhar, doivent posséder une luminosité absolue qui varie peu. Ce faisant, à défaut d’être des chan delles standar ds parfaites, elles constituent de bons indicateurs de distances.   

L'astrophysicien Saul Perlmutter
L'astrophysicien Saul Perlmutter. © The Shaw Prize.

En effet, plus une telle explosion se trouve loin, plus sa luminosité apparente sera faible pour un observateur sur Terre. Il se trouve que, selon le modèle cosmologique relativiste déduit des équations d’Einstein à partir de certaines hypothèses (comme le contenu et la géométrie de l’univers), le décalage spectral vers le rouge et la luminosité apparente de ces supernovae ne seront pas liés par une même fonction. En collectant un grand nombre d’observations portant sur les SN Ia et en mesurant à chaque fois leur décalage spectral vers le rouge et leur luminosité apparente, il devient possible de dresser une courbe permettant de préciser le type de modèle cosmologique dans lequel on se trouve.

L'astrophysicien Adam Riess
L'astrophysicien Adam Riess. © The Shaw Prize.

À partir de 1998, un nombre suffisant d’observations précises permettait de dire que notre univers observable était bel et bien en expansion accélérée. Ce qui nécessitait de réintroduire dans les équations d’Einstein un terme que ce dernier avait été le premier à faire intervenir avant de le rejeter : une constante cosmologique mimetex.cgi?%5CLambda.

Cette constante cosmologique mimetex.cgi?%5CLambda se présente comme une sorte de force de pression, contrebalançant la force d’attraction de la gravitation entre lesamas de galaxies depuis quelques milliards d’années. Elle constitue donc une densité d’énergie, mais contrairement à celles sous forme de la matière du gaz des galaxies, ou du gaz des photons du rayonnement fossile qui diminuent avec le temps, elle reste constante malgré l’expansion de l’univers.

La répartition des distances des supernovae SN Ia (en méga parsecs) en fonction du décalage spectral (redshift) z permet de choisir entre des modèles d'univers avec ou sans constante cosmologique
La répartition des distances des supernovae SN Ia (en méga parsecs) en fonction du décalage spectral (redshift) z permet de choisir entre des modèles d'univers avec ou sans constante cosmologique. © Hawaï University.

Aujourd’hui, elle domine même l’univers observable en représentant environ 73 % de la densité d’énergie, pour un volume d’espace dont la taille est de l’ordre de plusieurs centaines de millions d’années-lumière.

Parce qu’elle ne se manifeste que sous la forme d’une force répulsive entre les amas, cette énergie mystérieuse a été appelée dark energy, ce que l’on traduit en français par « énergie noire » ou encore « énergie sombre ».

Nul ne sait encore quelle est la nature de cette énergie et même si l’expansion accélérée semble un fait bien établi aujourd’hui, plusieurs explications théoriques ont été proposées pour cette dernière. On a même tenté de s’en passer. L'expansion accélérée pose de redoutables problèmes, comme celui de l'énergie quantique du vide, et constitue un défi majeur pour les théoriciens. En outre, elle pourrait surtout être une fenêtre ouverte sur de la physique au-delà du modèle standard, comme celle de lasupergravité.

 

2) La découverte de l'énergie noire

Devant l’enjeu et la difficulté du sujet qu’est la nature de l’énergie noire, Futura-Sciences s’est tourné vers l’un des grands spécialistes français de ce sujet, Philippe Brax, à qui l’on doit d’ailleurs déjà un dossier Futura-Sciences portant sur les frontières de la cosmologie moderne : La cosmologie, laboratoire pour l'infiniment petit.

Membre de l'institut de physique theorique du CEA à Saclay, il a été le collaborateur de Neil Turok, l’actuel directeur du Perimeter Institute for Theoretical Physics, il a bien voulu répondre à nos questions.

Le lecteur profitera certainement de la lecture d’autres dossiers Futura-Sciences, comme celui portant sur la relativité générale.

Le théoricien de la cosmologie Philippe Brax
Le théoricien de la cosmologie : Philippe Brax. © Philippe Brax.

3) La pire prédiction jamais faite par la physique théorique

Futura-Sciences : on présente parfois le problème de la constante cosmologique comme « la pire prédiction jamais faite par la physique théorique ». Pourquoi ?

Philippe Brax : Le problème est ancien, il était déjà connu de Wolfgang Pauli dans les années 1920, mais c’est surtout à partir des travaux de Zel'dovich que l’on a commencé à prendre conscience de son importance. Lorsqu’on applique les lois de la mécanique quantique aux différents champs de forces et de matières qui remplissent l’univers, comme le champ électromagnétique, on voit que ces derniers ne sont jamais complètement inactifs et doivent fluctuer sans cesse. C’est le fameux problème de l’énergie du point zéro.

Il en résulte que le vide quantique, comme on l’appelle, devrait être un énorme réservoir d’énergie devant laquelle celles de la matière des galaxieset des photons du rayonnement fossile seraient des quantités absolument négligeables. Cette énergie du vide devrait se manifester dans les équationsd’Einstein exactement comme une constante cosmologique. Or, toujours d’après la relativité générale, une telle quantité d’énergie devrait tellement courber l’univers qu’elle le refermerait sur lui-même et lui donnerait une taille bien inférieure à celle du Système solaire.

Les observations des supernovae SN Ia depuis 1998 montrent que tout se passe effectivement comme si une constante cosmologique était bel et bien présente et il semble naturel, de prime abord, de l’identifier avec l’énergie du vide quantique. S'’il s’agit bien de l’énergie des fluctuations du vide quantique que nous voyons accélérer l’expansion de l’univers, les mesures fournissent cependant une valeur très faible pour cette dernière. Il se trouve que, si l’on utilise les équations du modèle standard des particules élémentaires pour calculer la valeur de la densité d’énergie du vide quantique, on tombe sur un désaccord gigantesque entre la théorie et les observations.

Mais c’est surtout lorsque l’on cherche à calculer la valeur de l’énergie du vide associée aux fluctuations quantiques du champ de gravitation que le désaccord est le plus important, et de très loin. En effet, il est alors de 120 ordres de grandeurs environ, c'est-à-dire un 1 suivi de 120 zéros !

Il n’est donc guère étonnant que ce problème soit effectivement qualifié de : « la pire prédiction jamais faite par la physique théorique ».

Quand on regarde dans les détails, chaque type de particules, électron,quarkneutrino, photon, gluon, graviton etc. apporte sa contribution à l’énergie du vide quantique, mais pas avec le même signe. On savait depuis longtemps d’ailleurs que les contributions liées aux fermions, c'est-à-dire les particules de matières, sont de signe opposé à celles des particules de forces, qui sont des bosons. On pouvait imaginer que la somme de toutes ces contributions s’annulait ou pour le moins donnait une valeur faible.

Là encore, les calculs avaient montré qu’à moins de réglages très fins et bien peu naturels, une telle compensation avait bien peu de chance de se produire.

Pendant les années soixante-dix, on a découvert une nouvelle classe de théories quantiques des champs qui paraissait prometteuse pour résoudre ce problème mais il a vite fallu déchanter. Il s’agissait d'abord de la découverte de la supersymétrie puis ensuite de la supergravité, une généralisation naturelle de la théorie d'Einstein.

Ces théories, qui reposent sur des extensions des mathématiques et des symétries utilisées pour décrire l’espace-temps, permettent d’associer à chaque boson un partenaire sous forme d’un fermion et inversement. Ainsi, on pouvait facilement arriver à une compensation rigoureuse des contributions à l’énergie du vide de chaque particule. Cependant, le partenaire supersymétrique d’un photon ou d’un électron par exemple, qui devrait être respectivement un fermion (photino) et un boson (sélectron), devrait avoir la même masse. On devrait donc en produire simplement en allumant une lampe ou dans les collisions à basses énergies dans les accélérateurs.

On peut envisager de briser la supersymétrie pour alourdir les nouvelles particules prédites afin de rester en accord avec les observations et supprimer la production des partenaires supersymétriques des particules dumodèle standard aux énergies accessibles d’ordinaire.

Mais on retrouve encore le problème du désaccord entre observation et théorie pour l’énergie du vide. L’écart n’est alors « que » de 60 ordres de grandeurs, ce qui reste évidemment inacceptable. À nouveau, un réglage fin des différentes contributions pourrait se produire mais il apparaît comme peu probable. On aimerait qu’un mécanisme existe, assurant la compensation des différentes contributions de manière à retrouver la valeur observée.

Il semble que ce soit au niveau de la gravitation quantique et de son couplage à la matière que se situe la racine du problème et il est donc probable que celui-ci reste sans solution tant que nous ne disposerons pas vraiment d’une théorie sur cette dernière. Même dans ce cas, une partie de l’énigme réside aussi à basse énergie car il faudrait expliquer la compensation des contributions des particules du modèle standard, et ceci est également un mystère. 

 

4) Energie noire et champs de Higgs

Futura-Sciences : Les fluctuations quantiques avec l’énergie de point zéro ne sont pas les seules manières d’obtenir une densité d’énergie dans le vide se comportant comme une constante cosmologique. On sait que le fameux mécanisme de Higgs, utilisé pour donner une masse aux particules, peut aussi contribuer à l’énergie du vide. N’y a-t-il pas là une direction de recherche à explorer ?

Philippe Brax : En effet, on sait que le champ de Higgs mimetex.cgi?%5Cphi, celui du fameuxboson de Peter Higgs, se couple à lui-même. De ce fait, les équations qui décrivent son évolution dans le temps et l’espace font intervenir deux parties qui ressemblent à celle d’une particule se déplaçant dans une cuvette en forme de sombrero. Une partie est donc l’analogue de l’énergie cinétique et l’autre celle de l’énergie potentielle. On peut d’ailleurs se représenter les valeurs de cette énergie potentielle, qui correspond à une densité d’énergie V dans le vide, sous la forme même de la cuvette.

Les valeurs du champ de Higgs mimetex.cgi?%5Cphidonnent alors un point sur la surface de la cuvette. Lorsque le champ de Higgs est nul dans le vide, on se trouve au sommet du sombrero et l’énergie du vide associée au Higgs est maximale. Par contre, au fond de la cuvette, autour du sommet précédent, l’énergie du vide est minimale, voire nulle, bien que le champ de Higgs ne le soit pas.

Le potentiel de Higgs V
Le potentiel de Higgs V définit une densité d'énergie dans le vide qui dépend de l'intensité du champ de Higgs mimetex.cgi?%5Cphidécrit par deux composantes en tout point de l'espace et pouvant varier dans le temps. Il prend la forme d'un sombrero, comme le montre le schéma ci-dessus. © Gerard ′t Hooft - Scholarpedia.

Si l’on cherche à incorporer le mécanisme de Higgs dans les équations de larelativité générale, cette énergie potentielle V apparaît alors comme une constante cosmologique dans les équations, à ceci près que maintenant cette densité d’énergie n’est plus forcément constante dans l’espace et dans le temps.

Ceci suggère de réinterpréter la constante cosmologique comme l’effet d’un ou de plusieurs champs scalaires ressemblant au Higgs, dont les différentes contributions annuleraient ou presque celles des énergies de point zéro, de manière à ne plus laisser que la valeur de la constante cosmologique aujourd’hui observée. On peut aussi penser que la constante ne l’est pas vraiment et que de la même manière qu’une bille peut rouler du sommet du sombrero au fond de la cuvette, de tels champs scalaires sont en train de « rouler » lentement à l’échelle cosmologique vers le fond d’une cuvette de potentiel. Nous pourrions être d’ailleurs déjà au fond de cette cuvette.

Malheureusement, le champ de Higgs du modèle standard ne nous permet pas de résoudre le problème de la constante cosmologique. Mais l’on pense que d’autres champs de type Higgs, à des énergies bien plus élevées, doivent intervenir dans des extensions du modèle standard, comme dans le cadre des théories de grande unification et surtout la supergravité. Mais là encore, on retrouve des problèmes d’ajustements fins.

 

 

 

5) Énergie noire, théorie des supercordes et paysage cosmique

Futura-Sciences : La théorie des supercordes, qui est justement la meilleure candidate au titre de théorie unifiée des interactions et surtout de théorie quantique de la gravitation, ne propose-t-elle pas de résoudre le problème de la constante cosmologique de cette façon ?

Philippe Brax : L’idée de base est effectivement un peu la même. En fait, lathéorie des cordes introduit tout à la fois des champs supplémentaires et d’autres dimensions spatiales. Ces dernières nous seraient cachées parce que constituées de formes géométriques analogues à des bretzels et de très petites tailles. Dans ces dimensions spatiales supplémentairescompactifiées, formant ce qu’on appelle des espaces de Calabi-Yau, les champs supplémentaires s’y comportent un peu comme des champs magnétiques avec des énergies associées variant à la façon des niveaux d’énergies d’un atome.

Un modèle simple de Kaluza-Klein et de théorie des cordespt-loupe.gif 
Dans un modèle simple de Kaluza-Klein et de théorie des cordes, représenté sur ce schéma, à tout point d'un univers de grande taille (Large Dimension) il existe des dimensions spatiales supplémentaires ayant la forme d'un espace de petite taille (Small Manifold) topologiquement compliqué et fermé sur lui-même. Dans cet espace, des lignes de champs analogues à celles d'un champ magnétique stabilisent ce dernier en l'empêchant de s'effondrer sur lui-même pour donner untrou noir, ou d'entrer en expansion comme les autres dimensions de cet univers. © Universe review.

Ces niveaux d’énergies stabilisent les espaces de Calabi-Yau et les empêchent d’entrer en expansion ou de s’effondrer telle une étoile donnant un trou noir. Ce qui est intéressant, c’est que l’existence de ces espaces et de ces nouveaux champs (décrits par ce qu’on appelle des p-formes) est équivalente à l’apparition d’un très grand nombre de contributions à l’énergie du vide, similaires à celle d’un champ de Higgs. Il existe alors un nombre immense d’états de vide possibles selon la valeur de ces champs qui se retrouvent sur une surface à plusieurs dimensions, et bien plus compliquée que celle en forme de sombrero du champs de Higgs. En fait, si on gardait une image à deux dimensions, c’est un peu comme si les différents états d’énergies possibles étaient représentés par la topographie d’un paysage, avec des vallées, des cuvettes et des collines.

Le paysage cosmique d'un univers jouet 
Le paysage cosmique d'un « univers jouet », avec deux dimensions spatiales compactes supplémentaires enroulées sous la forme d'un tore de genre 2. Ces tores sont stabilisés dans différents états de tailles et de formes par les modes d'enroulement des cordes/membranes et les flux « magnétiques » des champs introduits par la présence des membranes de la théorie des supercordes. À un couple de deux paramètres décrivant les tores, correspond un état d'énergie du vide possible sur la surface. © Universe review.

Comme ces états d’énergies représentent en fait des valeurs possibles de la constante cosmologique, on en parle sous le nom de Paysage Cosmique, en anglais « Cosmological Landscape ». Généralement, le simple terme « Landscape » est utilisé.

Initialement, on se retrouve devant le même problème de réglage fin des lois physiques pour qu’existe une faible valeur de la constante cosmologique, mais celui-ci apparaît sous un nouveau jour. Pour bien le comprendre, il faut mentionner la contribution à la fin des années quatre-vingt du prix Nobel de physique Steven Weinberg.

Le prix Nobel de physique Steven Weinberg
Le prix Nobel de physique Steven Weinberg. © Goethe Universität Frankfurt am Main.

Weinberg a fait remarquer, calculs à l’appui, que si une constante cosmologique accélérant l’expansion de l’univers existait, elle ne pouvait pas être trop grande sans empêcher la formation d’étoiles et de galaxies. Elle doit même être vraiment très faible. Dès lors, il n’y aurait d’une certaine façon pas vraiment de raisons de s’étonner de sa faiblesse, car dans le cas contraire nous ne serions pas là pour observer la présence de cette constante. Ce genre de raisonnement, montrant un lien entre la présence de l’Homme dans l’univers et la structure de ces lois, s’appelle un argument anthropique.

Maintenant, il y aurait au moins 10500 états du vide possibles selon la théorie des cordes, ce qui fait qu’il doit exister un nombre important d’univers possibles dans lesquels les différentes contributions des énergies du vide peuvent presque s’annuler. Si l’on imagine un multivers constitué d’univers poches avec toutes les énergies du vide possible, certains auront une faible valeur et donc une faible constante cosmologique. Il n’y aurait que dans ces univers-là que la vie pourrait se développer.

Il n’y aurait donc pas besoin d’exiger un réglage fin des lois de la physique, ni de raison de s’en étonner, pas plus qu’il n’y a de raison de s’étonner que la Terre soit située à bonne distance d’une étoile brillant suffisamment longtemps pour que la vie se développe dans une galaxie constituée de centaines de milliards d’étoiles.

 

Le physicien Robert Dicke

Le physicien Robert Dicke. © www.princeton.edu.

Toujours dans le cadre des théories métriques, il y a la grande classe des théories f(R).

R est une quantité mathématique scalaire que l’on construit à partir d’un tenseur de courbure d’un espace-temps. D’autres grandeurs scalaires peuvent être obtenues à partir de ce tenseur mais celle-ci est la plus simple. Il se trouve que l’on peut dériver les équations d’Einstein à partie de R.

Certains ont proposé d’employer plutôt une fonction f(R), comme unpolynôme aR2+bR+c, ou même une fraction comme (aR2+b)/R. Lorsque la courbure de l’espace-temps est faible, ou au contraire grande, des termes correctifs aux équations d’Einstein apparaissent. De façon étonnante, on peut montrer que les théories f(R) sont équivalentes aux équations d’Einstein couplées à un champ scalaire avec un tenseur métrique particulier. On est donc ramené aux théories tenseur-scalaire précédentes.

Comme on l’a mentionné précédemment, la supergravité et la théorie des cordes font, elles aussi, apparaître des champs scalaires. On voit donc qu’il y a, à priori, plusieurs possibilités pour qu’apparaissent une constante cosmologique qui ne l’est pas vraiment, et qui est en fait un champ scalaire.

Que la constante cosmologique puisse varier intéresse aussi les théoriciens pour donner une explication à un fait curieux. La densité de matière noire et celle d’énergie noire sont du même ordre de grandeur, et, à priori, il n’y a pas de raison pour qu’elles le soient, pendant des milliards d’années dans un univers en expansion où la densité de matière noire diminue avec le temps.

C’est le problème de la coïncidence.

Un mécanisme avec constante cosmologique variable, qui s’ajusterait automatiquement pour maintenir des valeurs comparables, serait préférable.

Cela ouvre aussi la possibilité de se passer de la connaissance de la valeur initiale de la constante cosmologique, au début de l’histoire du cosmos, si cette dernière doit automatiquement évoluer vers une seule et même valeur quelques millions ou milliards d’années plus tard.

FS : Peut-on tester expérimentalement les théories tenseur-scalaire ?

PB : On a cherché à le faire très vite vers la fin des années 1960 et au début des années soixante-dix, au moment de la renaissance de la théorie de la relativité générale, à l’aide de tests dans le Système solaire et plus tard avec les pulsars binaires. Le test le plus précis à ce jour a été effectué avec la sonde Cassini, en utilisant ses communications radio avec la Terre.

On peut mettre des bornes sur les déviations autorisées aux prédictions de la relativité générale par les théories tenseur-scalaire. En fait, tout se passe comme s’il y avait une cinquième force véhiculée par des particules massives, similaires aux bosons de Yukawa. Plus la particule est légère, plus sa portée est grande. Si un champ scalaire de ce type existait dans le Système solaire, sa portée devrait être faible et il devrait donc être massif.

C’est là que les choses se compliquent si l’on veut tenter d’interpréter la constante cosmologique et sa faible valeur comme l’effet d’une théorie tenseur-scalaire. Les observations impliquent qu’il faut alors que la cinquième force soit à très grande portée et la particule la véhiculant très légère... en contradiction avec les tests du Système solaire.

Un autre problème se pose.

Un champ scalaire, du fait de la mécanique quantique, a tendance à se modifier pour s’ajuster à la plus haute énergie possible de la théorie avec laquelle il est couplé. Il s’agit ici de la théorie de la gravitation et donc, la masse de la particule scalaire devrait être proche de la masse de Planck, c'est-à-dire très, très lourde ! On peut essayer de résoudre ce problème mais c’est au prix de réglages fins, pas très naturels ni très convaincants.

 


Retour à l'accueil