Dossier La mystérieuse énergie noire

 

Sommaire

  1. La mystérieuse énergie noire
  2. La découverte de l'énergie noire
  3. La pire prédiction jamais faite par la physique théorique
  4. Énergie noire et champs de Higgs
  5. Énergie noire, théorie des supercordes et paysage cosmique
  6. Énergie noire et théories tenseur-scalaire
  7. Énergie noire et particules caméléons
  8. Énergie noire et homogénéité de l'univers
  9. Énergie noire et scénario du vide minimal
  10. Énergie noire et futur de l'univers

 

 

6) Énergie noire et théories tenseur-scalaire

Futura-Sciences : Ne pourrait-on pas chercher à simplement modifier la théorie de la gravitation ? On sait que plusieurs alternatives à la théorie d’Einstein ont été proposées.

Philippe Brax : En effet, et cela a d’ailleurs commencé quelques années seulement après la publication par Einstein de la forme finale de sa théorie de la relativité générale, en 1916. Il y a eu les tentatives des grands mathématiciens Alfred North Whitehead et Herman Weyl ainsi que du grand astrophysicien Arthur Stanley Eddington et d’Albert Einstein lui-même dès les années 1920. Quoique dans le cas des trois derniers auteurs, il s’agissait en fait de tentatives pour unifier la force de gravitation et la force électromagnétique dans un même cadre lié à la géométrie de l’espace-temps.

Plus tard, notamment pendant les années 1960, on a découvert que plusieurs des tentatives pour modifier la théorie d’Einstein étaient souvent des cas particuliers d’une grande classe de théories que l’on a baptisées « théories tenseur-scalaire ». Elles émergent aussi, souvent, des extensions de la relativité générale proposées pour unifier les forces, comme les fameuses théories de Kaluza-Klein et la théorie des supercordes.

Les alternatives à la théorie de la gravitation d’Einstein sont ce qu’on appelle des théories métriques, c'est-à-dire que l’on garde un espace-temps courbe décrit par ce qu’on appelle un champ de tenseur de rang deux, que l’on peut voir comme une sorte de tableau de nombres définis en chaque point de l’espace-temps. Ce tableau, que l’on appelle le tenseur métrique de l’espace-temps, permet de calculer des intervalles de temps et d’espaces entre deux événements. Par contre, on ne conserve pas les équationsd’Einstein, ou alors on ajoute des dimensions spatiales supplémentaires.

C’est ce cas que l’on considère avec les théories de Kaluza-Klein. Si l’on écrit par exemple les équations d’Einstein en 5 dimensions, elles redonnent magiquement un ensemble d’équations en 4 dimensions, dont certaines sont les équations d’Einstein habituelles mais les autres sont les équations de Maxwell de l’électromagnétisme et surtout celles d’un champ scalaire.

Ce champ scalaire est particulièrement remarquable en ce qu’il autorise la valeur de la constante de la gravitation de Newton à ne pas être partout la même dans l’espace et même à varier dans le temps. On est donc typiquement en présence d’une théorie tenseur-scalaire de la gravitation.

Un exemple similaire, mais qui est construit sans faire référence à des dimensions supplémentaires, est la théorie de Brans-Dicke, proposée au début des années 1960 par Robert Dicke. Là aussi la constante de Newton peut varier dans l’espace.

 

Futura-Sciences : On ne peut donc pas faire intervenir une théorietenseur-scalaire ou f(R) pour expliquer l’énergie noire ?

Philippe Brax : En fait si !

Dans un article, publié en 2004 par Carsten van de Bruck, Anne-Christine Davis, Justin Khoury, Amanda Weltman et moi-même, nous avons montré qu’il existait une théorie tenseur-scalaire dont la masse de la particule associée au champ scalaire était fonction de la densité de l’environnement dans lequel elle se trouvait. Elle serait donc légère dans le vide inter-amas et lourde dans une étoile comme le Soleil.

Cette particule s’adaptant en quelque sorte à son environnement, on lui a tout naturellement donné le nom de « particule caméléon ».

De cette façon, il est possible de concilier aussi bien les observations dans le Système solaire qu’au niveau des amas de galaxies.

En fait, ce qui permet de le faire dans le Système solaire, où l’espace interplanétaire est tout de même vide, c’est un effet d’écrantage du champ de caméléons, qui intervient dans une zone formant une coquille à la transition entre, par exemple, la Terre et son environnement immédiat. Ce même mécanisme marche pour le Soleil et il permet d’échapper aux contraintes de Cassini.

FS : La théorie des caméléons peut être décrite dans le cadre de théories f(R). Pourtant, récemment, deux groupes de chercheurs ont annoncé avoir fait des tests de ces théories f(R) avec des observations au niveau des amas de galaxies. Les résultats obtenus, sans vraiment réfuter ces dernières, semblent les rendre assez peu crédibles pour expliquer l’énergie noire. Doit-on en tirer la même conclusion pour la théorie des caméléons ?

PB : Ces tests posent surtout des contraintes sur les différentes théories f(R) possibles, mais certaines conduisent à des prédictions très proches de celles du modèle de concordance mimetex.cgi?%5CLambdaCDM. Pour le moment, la théorie des caméléons rentre précisément dans ce cadre et elle reste parfaitement compatible avec les observations. On doit donc améliorer la précision des tests précédents et des missions sont à l’étude pour cela.

Il y a par exemple la mission EUCLID, sur laquelle réfléchit actuellement l’ESA. En mesurant au niveau des galaxies et des amas de galaxies des effets de lentilles gravitationnelles faibles, les conséquences des oscillations acoustiques des baryons du plasma primordial et l’effet Sachs-Wolfe intégré, elle devrait nous en apprendre plus sur la nature de l’énergie noire. Je fais d’ailleurs partie de l’équipe des théoriciens qui se penche sur le potentiel de la mission EUCLID.

FS : On a de bonnes raisons de penser que l’on peut créer de la matière noire dans les collisions de protons au LHC. Est-il possible de produire des particules caméléons en laboratoire et ainsi de tester directement la théorie ?

PB : Remarquablement, il existe deux façons de mettre en évidence l’existence des particules caméléons et il y a même des expériences en cours qui les recherchent. C’est le cas avec l’expérience GammeV qui repose sur l’idée que les caméléons pourraient se comporter de façon assez similaire à l’axion de la chromodynamique quantique, lorsqu’un rayon lasertraverse un champ magnétique. Une autre approche fait intervenir des mesures avec la prochaine génération d’expériences sur l’effet Casimir.

FS : En quoi consiste l’expérience GammeV ?

PB : Initialement, c’est une expérience destinée à mettre en évidence l’existence des axions. Ces derniers devraient être produits lorsqu’un rayon laser polarisé pénètre dans une région où règne un champ magnétique important. Il se produit alors un phénomène d’oscillation similaire à ceux desneutrinos qui va convertir des photons en axions. Ceux ci sont très pénétrants et ne sont donc pas arrêtés par un obstacle opaque ou réfléchissant. Traversant ce dernier et toujours dans un champ magnétique, les axions peuvent se reconvertir en photons. C’est le même principe que pour l’expérience PVLAS en Italie.

Schéma illustrant le principe de l'expérience de PVLASpt-loupe.gif
Schéma illustrant le principe de l'expérience de PVLAS (voir les explications dans le texte). © universe-review

À la différence des axions, lorsque les caméléons s’approchent de l’obstacle et essayent d’y pénétrer, leur masse augmente et ils ne peuvent pas non plus le traverser. Dans l’expérience GammeV, si des caméléons sont produits, on peut donc les accumuler dans une cavité plongée dans un champ magnétique et où pénètre un faisceau laser polarisé. Si l’on coupe le faisceau laser, les caméléons présents vont tout de même finir par se reconvertir lentement en photons tant que règne un champ magnétique intense. On peut donc observer une luminescence rémanente.

Pour le moment, ces expériences n’ont rien donné d’autre que de poser une borne pour la valeur du couplage entre photons et caméléons, c'est-à-dire la probabilité de conversion de ces particules l’une dans l’autre.

FS : Et pour l’effet Casimir, comment peut-on le relier à l’existence de particules caméléons ?

 

PB : Le champ des particules caméléons peut être vu comme la manifestation d’une cinquième force à très courte portée dans le cadre d’expériences avec l’effet Casimir. En 1948, Hendrik Casimir cherchait à calculer les forces induites par les fluctuations de charges électriques des couches électroniques entre deux atomes neutres polarisables.

Pour simplifier le problème, il le ramena d’abord à celui d’un seul atome proche d’une plaque métallique conductrice. Cela le conduisit finalement à examiner les fluctuations quantiques du champ électromagnétique entre deux plaques conductrices. Il découvrit que les deux plaques modifiaient la forme des fluctuations quantiques du vide dans l’espace qu’elles encadrent, y changeant sa densité d’énergie qui devient localement plus faible.

Une densité d’énergie peut se voir comme une pression, ce qui fait que la pression de l’énergie dans le vide environnant, plus forte, va pousser les plaques l’une vers l’autre. Cet effet a depuis été vérifié en laboratoire de nombreuses fois.

Hendrik Casimir, théoricien hollandais
Hendrik Casimir (1909-2000), le théoricien hollandais, a réalisé que lorsque deux miroirs sont en face de l'autre dans le vide, les fluctuations du vide vont exercer sur eux une pression de radiation. En moyenne, la pression externe (flèches rouges) est supérieure à la pression interne (flèches vertes). Les deux miroirs sont donc attirés mutuellement l'un vers l'autre par ce que l'on appelle la force de Casimir. C'est la force F qui est proportionnelle à A/d4, où A est la surface des miroirs et d la distance qui les sépare. © Astrid Lambrecht.

Avec des collègues, C. van de Bruck, A. C. Davis, D. J. Shaw et D. Iannuzzi, nous avons calculé que dans certaines expériences avec l’effet Casimir, en considérant des plaques séparées par quelques dizaines de micromètres, la force attractive entre les deux plaques induites par les particules caméléons entrait en compétition avec celle de l’effet Casimir.

Le phénomène n’est pas facile à mettre en évidence mais une prochaine génération d’expériences pourrait tester la théorie des particules caméléons de cette façon, en montrant une déviation bien spécifique par rapport aux prédictions basées sur la seule prise en compte de l’effet Casimir.

 

8) Énergie noire et homogénéité de l'univers


Futura-Sciences : Certains physiciens, tout en admettant la réalité de l’accélération récente de l’expansion de l’univers, pensent qu’avant d’invoquer de la nouvelle physique, il faudrait peut-être chercher du côté des hypothèses sur lesquelles les modèles cosmologiques sont construits à partir de la relativité générale. Ils proposent de remettre en cause l’hypothèse d’homogénéité. Que faut-il en penser ?

Philippe Brax : C’est une direction de recherche qui est de plus en plus explorée depuis quelques années. Pour bien comprendre de quoi il s’agit il faut en revenir aux hypothèses de bases de la cosmologie moderne. Il y a d’abord bien sûr celle que l’univers observable est bien décrit par la théorie de la relativité générale. Cela pose déjà de multiples problèmes lorsque l’on veut appliquer cette théorie à l’univers dans son ensemble.

Les équations d’Einstein sont non-linéaires et personne n’a été capable de trouver une solution générale à ces équations. C’est un problème très difficile et probablement au-delà de la portée de l’esprit humain. On ne sait généralement résoudre des équations non-linéaires que sous certaines hypothèses simplificatrices, ou alors avec l’aide d’ordinateurs. L’exemple type à cet égard est celui de la mécanique des fluides.

Plus encore que la théorie de la relativité restreinte, la théorie de la relativité générale bouleverse nos intuitions sur le temps et l’espace en faisant dépendre les caractéristiques de ces derniers des distributions de matière et d’énergie. Dans quel sens peut-on en effet parler d’un temps cosmique, d’une histoire générale de l’Univers observable, si l’écoulement du temps n’est pas le même en fonction de ces distributions dans l’espace ?

Pour résoudre simultanément ces problèmes, les pionniers de la cosmologie relativiste, parmi lesquels on trouve Einstein et Herman Weyl, se sont appuyés sur une hypothèse connue sous le nom de principe cosmologique : « L’univers est homogène et isotrope à grande échelle ».

Implicitement, il affirme que notre galaxie n’occupe pas de place particulière dans l’espace et qu’à des échelles supérieures à celles des amas de galaxies, l’univers observable apparaît identique à tous les observateurs. Depuis l’époque de Copernic, cela semble une affirmation raisonnable.

Précisons un peu ce que l’on entend par homogène et isotrope.

RTEmagicC_Hamilton_2_txdam16849_07ec71.jpt-loupe.gif
En haut de cette image, on voit les équations d'Einstein complétées par un terme mimetex.cgi?%5CLambda. Il s'agit de la fameuse constante cosmologique. Ces équations, sous certaines hypothèses simplificatrices, admettent une solution cosmologique dite de Friedmann-Lemaître-Robertson-Walker (FLRW). La géométrie de cette solution est alors de 3 types possibles en ce qui concerne la courbure (paramètre k) et il suffit d'une fonction a(t) pour décrire l'expansion de l'espace au cours du temps. © Jean-Christophe Hamilton.

L’homogénéité signifie que, de même qu’à notre échelle, l’eau apparaît comme un fluide de densité uniforme, malgré le fait qu’elle soit en fait formée de molécules, le « fluide » de galaxies possède lui-aussi une densité constante lorsqu’on le regarde à une très grande échelle, supérieure à des centaines de millions d’années-lumière. L’isotropie indique quant à elle que l’univers apparaît comme identique à lui-même dans toutes les directions avec une excellente approximation. Dit autrement, on ne voit pas des caractéristiques différentes pour les galaxies selon que l’on regarde dans telle ou telle direction sur la sphère céleste.

RTEmagicC_Hamilton_3_txdam16850_07ec71.jpt-loupe.gif
En résolvant les équations d'Einstein pour un modèle cosmologique dit de FRLW, apparaissent deux équations différentielles simples, dites de Friedmann, décrivant la vitesse et l'accélération ä(t) de l'expansion à partir du facteur d'échelle a(t), en fonction de la constante cosmologique mimetex.cgi?%5CLambda, de la pression p et de la densité mimetex.cgi?%5Crho de matière et de rayonnement. © Jean-Christophe Hamilton.

Il se trouve que ces hypothèses simplifient énormément la résolution des équations d’Einstein. De plus, l’hypothèse d’homogénéité implique automatiquement l’existence d’un temps cosmique partagé par toutes les galaxies et qui permet de parler d’une histoire de l’univers observable. Les simplifications sont même si spectaculaires qu’il ne reste plus que trois types de géométrie de l’espace-temps, celles décrites par les modèles de Robertson-Walker (RW) mais déjà explorées par Friedmann et Lemaître. La géométrie du cosmos peut alors être vue comme l’analogue de celle d’une sphère, d’un plan infini ou encore d’une selle de cheval.

 

 

9) Énergie noire et scénario du vide minimal


Futura-Sciences : Peut-on justifier le principe cosmologique par des observations ?

Philippe Brax : On a cherché à le faire en sondant l’univers de plus en plus loin et en mesurant les distributions de galaxies et de radiosources comme les quasars, de plus en plus précisément. Parmi les relevés de galaxies, on a en particulier eu le Sloan Digital Sky Survey (SDSS), celui de Las Campanas et enfin celui d’APM. Ils montrent qu’à des échelles supérieures à quelques centaines de millions d’années-lumière, l’univers n’est pas complètement homogène. Les amas de galaxies se rassemblent pour former des filaments et des murs entourant des bulles vides.

RTEmagicC_Hamilton_1_txdam16848_07ec71.jpt-loupe.gif
Une illustration des observations soutenant le principe cosmologique pour l'univers observable. © Jean-Christophe Hamilton.

Toutefois, la distribution de ces bulles et filaments formant des superamasde galaxies montre une certaine homogénéité qui de prime abord semble suffisante pour une description effective du cosmos au-delà de ces échelles par un modèle FLRW.

La carte en 3D de la répartition des galaxiespt-loupe.gif

La campagne d'observations du Sloan Digital Sky Survey (SDSS) a permis de dresser une carte en 3D de la répartition des galaxies dont on voit une coupe ci-dessus. Chaque point représente une galaxie jusqu'à une distance de la Terre d'environ 2 milliards d'années-lumière. © SDSS.

La véritable raison qui a fait que l’on considérait l’hypothèse d’homogénéité comme une très bonne approximation de l’univers observable depuis une vingtaine d’années, doit être recherchée au niveau du rayonnement fossile.

Les mesures de Cobe et WMap ont en effet établi que ce dernier était homogène et isotrope à 10-5 près. Les fluctuations de températures que l’on y mesure sont reliées aux fluctuations de densité dans l’univers primordial, 380.000 ans après la « naissance » du cosmos observable. Ces dernières étaient donc très faibles et cela donne beaucoup de poids au principe cosmologique. Ce n’est que plus tard, lorsque ces fluctuations de densité vont croître pour donner les structures en superamas actuelles, que l’univers observable va devenir moins homogène.

FS : Cela ouvre donc la porte à une reconsidération de la solution des équations d’Einstein décrivant l’univers observable depuis quelques milliards d’années ?

PB : Exactement. Si on prend l’analogie avec la surface de la Terre ou une surface plane, les modèles cosmologiques décrivent donc le cosmos comme s'il s’agissait de surfaces parfaites. On sait bien que celle de la Terre est bosselée et que l’image d’une sphère, ou plus précisément d’un ellipsoïde de rotation, parfaite n’est qu’une idéalisation de sa surface.

Il se trouve que, si l’on cherche une solution des équations d'Einstein plus réaliste décrivant l’univers observable, une moyenne sur les « bosses » de l’espace-temps dans le cas d’un univers relativiste inhomogène montre que la solution ce dernier s’écarte de celle d’un univers homogène, de la même façon qu’elle le ferait si l’on tenait compte de l’existence d’une constante cosmologique accélérant son expansion ! Celle-ci émerge donc directement sans que l’on ait besoin d’introduire de la nouvelle physique.

Il y a ainsi une solution des équations d’Einstein connue depuis longtemps et qui s’appelle la métrique de Tolman-Bondi, tout à fait appropriée pour décrire un tel univers inhomogène. Physiquement, on est ainsi conduit à postuler que nous serions à l’intérieur d’une zone de sous-densité dans l’univers, ce qui serait responsable du fait qu’elle soit en expansion accélérée. On parle de cette théorie en termes de scénario du vide minimal (Minimal Void ou MV en anglais). On peut montrer qu’il est possible d’être en accord de cette manière aussi bien avec les observations des supernovaeSN Ia qu’avec celles de WMap 3 et les calculs de la nucléosynthèseprimordiale. Reste que pour cela, nous devrions être presque au centre de cette zone, ce qui est assez peu Copernicien.

FS : Peut-on départager par des observations le modèle de concordance mimetex.cgi?%5CLambdaCDM et celui du Vide Minimal ?

PB : Le modèle mimetex.cgi?%5CLambdaCDM est quand même celui qui reste le plus facile à mettre en accord avec les observations et qui colle le mieux avec celles-ci. Cependant, en procédant à des relevés de galaxies plus profonds dans l’univers, le modèle du vide minimal implique que l’on devrait mettre clairement en évidence que nous sommes dans une zone de sous-densité. Il serait possible aussi de voir que l’univers n’est pas localement en expansion avec la même vitesse en fonction de la direction des observations. Uneanisotropie dans la valeur de la constante de Hubble pourrait ainsi découler du modèle MV. Surtout, la courbe reliant luminosité et décalage spectral, qui a permis de découvrir l’expansion accélérée de l’univers grâce aux SN Ia, devrait posséder un pic caractéristique à la frontière séparant notre zone de sous-densité du reste de l’univers, comme le pensent Stephon Alexander, Tirthabir Biswas, Deepak Vaid et Alessio Notari.

 

10) Énergie noire et futur de l'univers


Comme vient de nous le montrer Philippe Brax, la nature de l’énergie noire est un sujet fort riche avec une pléthore de modèles théoriques possibles, dont certains n’ont malheureusement pas été mentionnés ici. Pour ceux qui souhaitent en savoir plus, ce dossier se termine par quelques liens techniques comportant eux-mêmes une large bibliographie.

Nous avons vu que l’étude de l’énergie noire était susceptible d’apporter des informations sur de la physique au-delà du modèle standard. Il est bien possible que ce soit l’unique moyen de tester des théories de gravitationquantique spéculatives, comme la supergravité, la théorie des supercordesou la gravitation quantique à boucles.

Si la masse de Planck (l’échelle d’énergie à laquelle les effets de la gravitation quantique sont nettement perceptibles) est bien de 1016 TeV, ni le LHC avec ses collisions à 7 voir 14 TeV, ni un accélérateur du futur ne pourront jamais nous permettre de tester ces théories fondamentales pour comprendre la naissance de l’univers observable.

La cosmologie, en tant que laboratoire pour l'infiniment petit, serait donc la seule fenêtre observationnelle qui nous soit accessible.

Selon la nature variable ou non de l'énergie noire, l'univers finira par un Big Crunch ou continuera éternellement son expansionpt-loupe.gif
Selon la nature variable ou non de l'énergie noire, l'univers finira par un Big Crunch ou continuera éternellement son expansion. Sur ce schéma, on voit la décélération puis l'accélération de l'expansion de l'univers observable en fonction du temps en abscisse. Trois scénarios possibles pour la fin de l'univers apparaissent alors. © Nasa/CXC/M. Weiss.

Éclaircir la nature de l’énergie noire n’est pas seulement susceptible de nous donner la clé de la naissance de l’univers, elle peut aussi nous donner celle de son destin.

En effet, si l’énergie noire n’est pas vraiment décrite par une constante cosmologique, et qu’elle peut varier, l’avenir du cosmos peut être très différent d’une expansion accélérée éternelle. Cette dernière conduisant asymptotiquement à la mort thermique de l’univers selon un scénario déjà exploré, mais sans constante cosmologique à l’époque, par le grand physicien Freeman Dyson.

De manière générale, lorsque l'on introduit un champ scalaire variable dans le temps, on parle à son sujet de quintessence.

Il s'agit d'un clin d'œil au concept de quintessence décrivant la nature de l'espace chez Aristote, le grand philosophe grec, et s'ajoutant aux quatre éléments constituant le cosmos (eau, feu, air, terre). C'est donc également une allusion au fait qu'il existe quatre composants fondamentaux à l'échelle cosmologique dans l'univers : la matière baryonique (composant les atomesconnus sur terre), les photons du rayonnement fossile, les neutrinos(principalement composés du fond cosmologique de neutrinos) et la fameuse matière noire.

Les trois destinées possibles de l'univers observable

Sur ce schéma, on peut voir les trois destinées possibles pour l'univers observablept-loupe.gif
Sur ce schéma, on peut voir les trois destinées possibles pour l'univers observable. © Nasa/STScI/Ann Feild.

Comme indiqué sur le schéma ci-dessus, la destinée de l'univers observable passe par trois scénarios possibles.

  • Il finira par un Big Crunch si l'énergie noire est décrite par un champ scalaire dont la densité d'énergie va varier de telle sorte qu'elle finira par devenir attractive plutôt que répulsive (Il existe ainsi des modèles de supergravité, comme celui avancé par Renata Kallosh et Andrei Linde, dans lesquels l’accélération de l’univers s’arrête pour se changer en contraction et finir en quelques dizaines à quelques centaines de milliards d’années par un Big Crunch).
  • Si l'on a affaire à une constante cosmologique, l'expansion durera éternellement.
  • Dans le cas où l'énergie noire est décrite par un champ scalaire particulier dit « fantôme » la valeur de l’énergie noire devient infinie en un temps fini de l’ordre de 20 milliards d’années. Dans cette hypothèse, même les forces nucléaires liant les noyaux de notre corps ne pourront pas s’opposer à une force de répulsion qui dissociera toutes les structures matérielles de l’univers. L'expansion se manifestera à des échelles de plus en plus petites, passant du niveau des amas de galaxies jusqu'aux noyaux des atomes et en dessous. C'est le scénario du Big Rip

Avec de la chance, des programmes comme ceux du LSST et EUCLID devraient nous en dire plus dans les années à venir.

Retour à l'accueil