mercredi 24 avril 2013

Le modèle cosmologique remis en question par la mission Planck ?

Le mois dernier, j'ai eu la chance d'assister à la conférence de presse de l'ESA (Agence Spatiale Européenne) pendant laquelle les scientifiques qui ont travaillé sur la mission Planck ont dévoilé les résultats de quatre années de travail et d’observation. Le site Science étonnante a publié ce superbe article où l'on peut apprendre presque tout ce qu'il y a à savoir sur le sujet. J'ai donc rédigé celui-ci comme un article complémentaire ; je parlerai bien sûr du rayonnement fossile, mais je commencerai par expliquer comment on met au point un modèle physique, de façon générale. Je poursuivrai en parlant du modèle cosmologique standard et de sa possible remise en question par les résultats intrigants de la mission Planck
Le fond cosmologique diffus vu par Planck. Crédits : ESA and the Planck Collaboration

Les modèles physiques : la réalité simplifiée

En physique, un modèle est une représentation simplifiée d'un système réel qui en reproduit certaines propriétés. Un bon modèle est celui qui, avec le plus petit nombre de paramètres, permet de faire un maximum de prédictions fiables sur l'évolution du système. Selon le niveau d'exigence requis, le modèle peut donc être plus ou moins complexe.

Par exemple, pour modéliser la trajectoire d'un boulet de canon (un problème classique), un modèle élémentaire prendrait en compte l'inclinaison du canon, sa position et la vitesse initiale du boulet de canon. La hauteur du boulet de canon (notée z) en fonction du temps (noté t) serait alors égale à :

g est l’accélération gravitationnelle que l'on peut considérer comme constante, Vo la vitesse initiale, alpha l'angle d'inclinaison du canon et Zo la hauteur du canon par rapport à l'origine du repère utilisé. Avec seulement trois paramètres, on peut déjà donner une estimation assez fiable de la trajectoire. Pour voir ce que cela donne, vous pouvez accéder à une animation interactive en cliquant sur l'image ci-dessous :

Animation interactive - Trajectoire parabolique simple
Trajectoire parabolique d'une balle de golf dans un jeu vidéo
Pour plus de précision, il faudrait prendre en compte le vent ainsi que la résistance de l'air, ce qui donnerait une équation un peu plus compliquée. On pourrait aussi inclure un coefficient relatif à l'aspect plus ou moins lisse de la surface du boulet ou d'autres facteurs pour aboutir à un modèle plus sophistiqué. C'est ce qu'on fait dans les simulations de jeux de golf par exemple, en remplaçant évidemment le boulet par une balle. Plus on complique un modèle, plus il donne des prédictions précises. Mais plus un modèle est compliqué, plus il faut du temps pour calculer les solutions. Dans le cas du boulet de canon, une calculatrice donnera le résultat en une seconde. Mais si l'on s'intéresse à des systèmes plus grands et/ou plus complexes, le calcul des résultats peut prendre des semaines, des mois voire des années ! Il faut donc faire attention à ne pas prendre en compte des paramètres inutiles. Jadis, les modèles étaient physiques ; on construisait des miniatures ou des systèmes simplifiés .. Aujourd'hui, la modélisation est principalement faite sur un ordinateur, même si certains modèles "réels" sont encore utilisés (par exemple, dans la modélisation des turbulences hydrodynamiques).

Élaboration d'un modèle en physique

Pour construire un modèle, les physiciens se demandent d'abord quelle information il doit fournir et avec quelle précision. Puis ils déterminent le cadre théorique et les paramètres à prendre en compte. Par exemple, s'il faut modéliser le comportement de l'aile d'un avion, il va falloir considérer sa forme, déterminer quelles forces sont imprimées par l'air et comment celles-ci évoluent avec la vitesse. Pour cela, il faut aussi s'intéresser au matériau, à la façon dont il se déforme etc. Ils mettent alors en équation les phénomènes à reproduire, en essayant de simplifier le plus possible le problème.

Enfin, ils testent leur modèle en comparant les prédictions avec la réalité. Si le modèle n'est pas satisfaisant, c'est qu'on n'a pas pris suffisamment de paramètres en compte, que le cadre théorique est trop restreint ou parfois même que l'on a rien compris (c'est arrivé plus souvent qu'on ne le pense). Si le modèle est satisfaisant, il est validé, mais cela ne veut pas nécessairement dire qu'on a compris le phénomène, on a peut-être juste eu de la chance !

Les scientifiques recourent énormément à la modélisation car elle offre, à peu de frais généralement, une base solide à la recherche de solutions et à la prévention. Ils peuvent ainsi modéliser la solidité d'une construction, l'échauffement d'une batterie, le métabolisme d'une cellule ou la déformation d'une carrosserie mais aussi le trafic routier, la propagation d'un virus, un tsunami (vidéo ci-dessous) ou une tornade. Les prédictions hasardeuses en météorologie sont d'ailleurs une très bonne illustration des limites de certains modèles très complexes. La modélisation intervient aussi dans des applications plus ludiques, qu'il s'agisse d'une voiture dans un jeu vidéo ou des poils d'un monstre dans un dessin animé en images de synthèse.


Quel est le système le plus complexe à modéliser ? Cela dépend du modèle utilisé bien sûr. A cet égard, caractériser le comportement de quelques centaines d'atomes peut s'avérer aussi complexe que de calculer la trajectoire d'un milliard de milliards de milliards de boulets de canons. Les physiciens ne s'arrêtent pas à cela, et ont proposé un modèle pour l'Univers !

Le modèle cosmologique standard

J'en viens enfin au fait : le modèle standard en cosmologie est le modèle qu'utilisent actuellement les physiciens pour décrire les étapes de formation de notre Univers ainsi que son état actuel. Ce modèle ne se contente donc pas de proposer un cadre dans lequel il est possible de reproduire les propriétés actuelles de l'Univers, il offre aussi la possibilité d'entrevoir comment il s'est formé et comment il va évoluer. Le modèle standard repose principalement sur les équations de Friedmann qui décrivent, dans le cadre de la relativité générale, les principales caractéristiques structurelles de l'Univers. Comme le souligne Science étonnante dans son commentaire, la formulation mathématique est finalement assez simple ! Quelques paramètres seulement suffisent à décrire l'Univers dans ses grandes lignes. En revanche, modéliser l'évolution et la structuration de l'Univers nécessite l'usage de supercalculateurs, en raison de la taille du système et de la complexité des interactions au sein de la matière.

Pour être valide, ce modèle doit pouvoir reproduire les principales propriétés observées : notre Univers est homogène et isotrope à grande échelle (du moins, c'est ce qui est généralement admis, nous verrons plus loin qu'il va peut-être falloir revoir cette hypothèse), ce qui revient à dire que, si l'on prend du recul et qu'on regarde la structure de l'Univers de très loin, on s’aperçoit qu'il est essentiellement rempli de la même chose, disposée de la même manière et ce dans toutes les directions. En revanche, à petite échelle (tout est relatif, on parle ici d'amas de galaxies d'environ 100 000 000 000 000 000 000 kms), l'Univers est hétérogène ; il est composé de grandes parcelles de vide et de petits points de matière : galaxies, étoiles, planètes etc. La vidéo ci-dessous montre la structure de l'Univers à différentes échelles.


On sait également que l'Univers est en expansion et tous les indices laissent supposer que cela a commencé avec le Big Bang, une phase d'expansion extraordinairement violente. Le modèle standard doit donc pouvoir expliquer la formation, l'évolution et la répartition actuelle de toute la matière de l'Univers. Mais ce n'est pas tout : la matière de l'Univers est principalement constituée d'une matière noire (ou matière sombre) dont on ne sait pas grand-chose aujourd'hui. La matière "ordinaire" ne représente qu'environ 5% de notre Univers ! De même, on pense aussi que la dynamique de l'Univers est principalement gouvernée par une mystérieuse énergie sombre. Les scientifiques doivent intégrer ces constituants méconnus dans leurs simulations. Pour se faire une idée du travail des physiciens, on peut regarder ce petit film du CNRS :


Pour valider leur modèle, les physiciens confrontent ses prédictions aux observations fournies par leurs instruments de mesure : abondance des différents atomes dans l'Univers, taux d’expansion, forme des amas de galaxies, effets gravitationnels .. Ils peuvent également s'intéresser au fond cosmologique diffus, cette trace laissée par le Big Bang, aussi appelée "rayonnement fossile". C'est à l'étude de ce fond cosmologique que la mission Planck s'est consacrée.

L'après Big Bang, la lumière primordiale et la structure de l'Univers

Que savons-nous exactement de l'origine de l'Univers ? Et bien pas grand-chose ! Certes, nous avons établi assez précisément la chronologie des événements qui ont donné naissance à l'Univers mais nous n'avons aucune trace concrète de cette époque. La première relique tangible de notre Univers est le fond cosmologique diffus, un rayonnement émis environ 380 000 ans après le Big Bang qui correspond à une étape très particulière appelée recombinaison.

Avant cette recombinaison, la matière telle qu'on la connait n'existait pas encore : la densité d’énergie et la température empêchaient la formation des atomes. La matière formait un plasma, un état particulier où les électrons ne sont pas rattachés aux protons. La lumière était alors "piégée" par ce nuage d'électrons et ne pouvait se diffuser. Au fur et à mesure de l'expansion, l'Univers se refroidit, finissant par franchir une température critique (environ 2700° C) en dessous de laquelle les électrons et les protons se réunirent chaleureusement. C'est cette étape que l'on appelle la recombinaison. Les grains de lumière -les photons- furent alors libérés du joug électronique et propulsés, à la vitesse que l'on connait, dans toutes les directions de l'Univers.
  La recombinaison, Crédits: William Kinney
Cette lumière initiale baigne encore l'Univers aujourd'hui, bien que son rayonnement soit très faible. C'est une sorte de bruit de fond que l'on retrouve partout, c'est pourquoi il est appelé fond cosmologique diffus en français. Ce fond cosmologique rayonne comme un corps dont la température serait de 2,7 degrés Kelvin (-270° C), pas loin du zéro absolu ! En raison de sa faible intensité, ce rayonnement fossile ne sera détecté qu'en 1964 alors que les théoriciens l’avaient prédit dans les années 40.

Bien plus tard, en 1992, les scientifiques découvrent une particularité intrigante du fond cosmologique diffus : d'infimes variations dans l'intensité du rayonnement. Celles-ci sont particulièrement intéressantes pour les physiciens car elles témoignent des irrégularités dans la structure de l'Univers primordial, avant que la lumière ne soit libérée ! Les fluctuations du signal renseignent sur la distribution et la nature de la matière et de l'énergie peu de temps après le Big Bang et permettent de déterminer certains paramètres cruciaux dans le modèle standard : la forme de notre Univers, sa composition, son taux d'expansion etc. La structure actuelle de l'Univers, avec ces grandes zones de vide et ses ilots de matière, découle directement de ces fluctuations primordiales.

Comment les fluctuations du fond cosmologique diffus renseignent-elles sur la structure de l'Univers ?

Modélisation de la structure de l'Univers. NASA
Contrairement à ce que l'on pourrait penser, les zones "chaudes" de la carte du fond cosmologique diffus ne correspondent pas à des régions pleines de matière. C'est tout l'inverse ! Les photons libérés au moment de la recombinaison ont en quelque sorte gardé en mémoire l'état de leur lieu de naissance. Ces nostalgiques particules sont en effet plus ou moins énergétiques en fonction de la densité de matière et d'énergie de leurs régions d'origine. Ainsi, un photon issu d'une zone légèrement plus dense aura dépensé légèrement plus d’énergie pour échapper aux forces gravitationnelles et financer son escapade cosmique. Le photon en question transportera donc légèrement moins d'énergie que ses compatriotes issus de régions plus désertiques, ce qui correspondra à un rayonnement un peu plus froid. A l'inverse, un photon provenant de régions mois densément peuplées aura dépensé moins d'énergie pour s'échapper et le rayonnement associé sera donc plus chaud que la moyenne. La cartographie du fond cosmologique permet donc de dresser une carte de la densité de matière de l'Univers au moment de la recombinaison. Toutes les structures observables aujourd'hui ont évolué à partir de ces infimes variations de densité de matière et d'énergie.

La mission Planck

La mission Planck a consisté (entre autres) à envoyer dans l'espace un satellite du même nom afin qu'il cartographie le fond cosmologique diffus. En 1989, la NASA avait lancé la sonde COBE (COsmic Background Explorer) qui avait fourni pour la première fois une carte des fluctuations. Vingt ans plus tard, les données recueillies par la sonde Planck sont 600 fois plus précises. La sonde a "regardé" dans toutes les directions pour relever l’intensité et les variations du rayonnement. Cela n'a pas été une mince affaire, car les différences sont extrêmement ténues, parfois de l'ordre du millionième. Pour pouvoir les observer, il a fallu concevoir un module capable de refroidir un détecteur ultra-précis à un dixième de degré au-dessus du zéro absolu, faisant de cette partie de la sonde "l'objet le plus froid dans l'espace" comme indiqué pendant la conférence de presse. Une merveille de technologie mais restons modestes : il s'agit de l'objet le plus froid envoyé par l'Homme dans l’espace. Les données ont également nécessité un long traitement : avant de voir apparaître le fond cosmologique diffus, il a fallu soustraire les contributions de tous les objets rayonnants, notamment celle de la voie lactée ! C'est ce qui est illustré dans la vidéo ci-dessous (Crédits : ESA and the Planck Collaboration) :

video

Les chercheurs ont pu dresser la carte la plus précise jamais réalisée de ce rayonnement, ce qui a permis d'affiner notre connaissance des paramètres qui caractérisent l'Univers : la composition de l'Univers par exemple, qui contient finalement plus d'énergie sombre que prévu.
La nouvelle composition de l'Univers, Crédits: ESA and the Planck Collaboration
L'estimation de l'âge de l'Univers a été revue à la hausse : 13,819 milliards d'années. Quant au taux d'expansion, caractérisé par la constante de Hubble, il a été revu à la baisse : il passe de 73 (km/s)/Mpc environ à 67,15 (km/s)/Mpc. Les étoiles et galaxies s'éloignent donc bien moins vite que prévu les unes des autres.

Une validation du modèle standard ?

Les courbes obtenues grâce aux mesures se superposent presque parfaitement à celles déduites du modèle théorique, à tel point qu'on pourrait y voir une preuve de la validité du modèle standard. Cela serait rassurant dans un sens : on pourrait espérer que le modèle donne des prédictions fiables. Mais Planck a aussi révélé plusieurs anomalies pour le moins étranges qui ne sont pas prévues par le modèle standard. 

Premièrement, la désinscription de la structure à grande échelle n'est pas satisfaisante ; les fluctuations sont inférieures d'environ 10% aux prédictions, ce qui représente une différence significative. Deuxièmement, il existe une anisotropie troublante : l'Univers est plus froid dans une direction et plus chaud dans la direction opposée. Ce fait contredit l'hypothèse d'un Univers homogène et isotropique à grande échelle. Troisièmement, les physiciens ont repéré un "point froid" beaucoup plus grand que les autres. Ces deux derniers points avaient déjà été mis en évidence par la mission WMAP de la NASA mais il était impossible d'affirmer quoi que ce soit en raison de l'incertitude sur les mesures. Planck a tranché : il ne s'agit pas d'artefacts, la précision des mesures fournies ne laisse pas de doute quant à l'origine cosmique de ces anomalies. 

Une chose est sûre : quelque-chose cloche dans le modèle standard ! Avec un peu de chance, il suffira peut-être de le compléter (probablement en modifiant l'hypothèse initiale d'isotropie) pour le rendre plus robuste. Mais peut-être s'agit-il d'une remise en question plus profonde qui amènerait à complètement changer le modèle standard : une petite révolution dans le monde des cosmologistes ! S'il y a une nouvelle physique à découvrir, elle se trouve certainement dans ces anomalies. Comme le soulignent les scientifiques de la mission Planck, il reste encore énormément de données à analyser. Nous pouvons donc espérer en apprendre un peu plus dans les années qui viennent.

En raison de son objectif théorique, la mission a parfois été critiquée pour son coût (environ 700 millions d'euros). A première vue, la carte fournie par Planck est sans doute moins spectaculaire et plus abstraite que les images envoyées depuis Mars par le robot Curiosity. Pourtant, peut-on trouver question plus fascinante que celle de l'origine de l'Univers ?

Pour en apprendre davantage, je conseille la lecture de cet article : Le rayonnement fossile, et ce que Planck nous en révèle

mappemonde de Mercator de 1569.  Collection Marc Capurro. Gênes. Usage pédagogique non commercial. DIUPNC

3 commentaires:

  1. Mais non, mais non, ca n'est pas compliqué du tout de simuler l'Univers ! :)

    Dans une cosmologie homogène et isotrope, le facteur d'échelle a(t) obéit à une equa diff toute simple, que l'on peut facilement simuler par exemple sur le site Wolfram Alpha

    http://www.wolframalpha.com/input/?i=da%2Fdt+%3D+13.8*+sqrt%280.27%2Fa+%2B+0.73*a%5E2%29+with+a%280%29%3D1

    ou même en Excel !

    Pour ma part, je trouve que simuler le destin de l'Univers en Excel, c'est grisant !

    (l'équation du modèle est dans la note [2] de ce billet : https://sciencetonnante.wordpress.com/2011/03/27/il-y-a-bien-longtemps-dans-une-galaxie-lointaine-tres-lointaine/)

    Merci pour la citation ;-)

    RépondreSupprimer
  2. C'est vrai que le modèle peut être décrit simplement, je vais modifier l'article!

    En revanche, pour modéliser l'Univers (dans une simulation numérique), il faut utiliser des supercalculateurs. De tels calculs prendraient des centaines ou des milliers d'années sur un ordinateur standard. Voir par exemple : http://irfu.cea.fr/Sap/Phocea/Vie_des_labos/Ast/ast_visu.php?id_ast=2529

    Je n'ai pas été très clair..

    Merci pour le commentaire (et pour Wolfram alpha, je ne pense jamais à l'utiliser!) :)

    RépondreSupprimer
  3. Ce commentaire a été supprimé par un administrateur du blog.

    RépondreSupprimer