Sciences dessus dessous

Archive de la catégorie ‘Physique’

Vendredi 21 avril 2017 | Mise en ligne à 10h38 | Commenter Commentaires (14)

LHC : dernières nouvelles de l’Univers

Mine de rien, ça prend des très gros détecteurs pour mesurer l'infiniment petit... (Photo : CERN)

Le LHCb : mine de rien, ça prend des très gros détecteurs pour mesurer l'infiniment petit... (Photo : CERN)

C’est drôle comme le hasard fait les choses, des fois. J’avais une entrevue prévue cette semaine depuis un bon bout de temps avec le physicien de l’UdeM Jean-François Arguin pour faire un suivi sur les activités du Large Hadron Collider (LHC), le grand collisionneur de particules européens auquel on doit la découverte du boson de Higgs, en 2012. J’avais en tête une foule de questions sur le fait que, bien que l’on sache que le «Modèle standard» est très imparfait et que le LHC vise justement à trouver des observations qui ne cadrent pas dedans, les mises à jour publiées sur le site du CERN (le centre de recherche qui gère le LHC) parlent continuellement d’«excès non-significatifs», de «pas de déviation significative du Modèle standard», de «pas d’évidence convaincante de SUSY (une théorie sur ce qui existe au-delà du Modèle standard, ndlr)», etc.

En fait, les seules nouvelles particules qui ont été «découvertes» au LHC récemment ne sont que des états excités de particules qu’on connaissait déjà… Alors je voulais questionner M. Arguin sur les raisons de cette (apparente) stagnation : pourquoi est-il si difficile de dépasser le Modèle standard ? Comment se fait-il que, bien que l’on sache que ce Modèle n’explique que 5% de l’Univers (la matière «normale», mais on sait qu’il existe aussi une «matière noire» et une «énergie noire», dont on ignore tout), le LHC prenne tant de temps à produire des observations qu’on ne parvient pas à expliquer dans le cadre du MS ?

Puis est arrivé ceci, mardi : «Le LHCb trouve de nouveaux signes d’une possible déviation du Modèle standard». Quand on parle du loup…

Ce que le LHC fait, essentiellement, est d’accélérer des protons (des particules qui, avec les neutrons, forment le noyau des atomes) à des vitesses extrêmement proches de celle de la lumière, puis à les faire se heurter. Beaucoup de ces protons vont alors se défaire en «morceaux» (ils sont composés de particules nommées quarks) mais, dans l’orgie de particules qui s’ensuit, certaines vont fusionner pour en former de nouvelles. Celles-ci, dans la plupart des cas, auront une existence très fugace et se déferont aussitôt formées, projetant au passage d’autres particules. Tous ces «morceaux» sont alors recueillis et leurs énergies mesurées dans des détecteurs (le LHCb en est un) et, comme le Modèle standard nous dit déjà de manière assez précise comment ces particules se font et se défont (quand un électron heurte un antiélectron, par exemple, les deux particules s’annihilent et deux rayons gamma sont produits), alors on peut déduire ce qui s’est passé à partir des fragments recueillis.

Ce qui a été annoncé cette semaine, c’est une anomalie dans la décomposition d’une particule nommée méson B, qui est composée d’un quark et d’un anti-quark et qui subsiste typiquement 1 millième de milliardième de seconde. Parmi les «morceaux» que sa dégradation produit, on trouve soit une pair électron-antiélectron, soit une paire muon-antimuon — le muon étant un proche parent de l’électron, la principale différence étant sa masse 200 fois plus grande. Selon le Modèle standard, les mésons doivent produire à peu près autant d’une paire que de l’autre, mais le LHCb a mesuré une inégalité que le MS ne peut pas expliquer.

Pour l’heure, on ne peut pas encore parler d’une «découverte» parce que la chance pour qu’il s’agisse d’une fluctuation aléatoire est encore trop grande. «C’est un excès de 2,2 à 2,5 sigmas (une mesure statistique, ndlr), donc c’est quelque chose qui arrive par hasard de l’ordre de 1% du temps. Alors c’est vrai que c’est rare et que c’est intéressant», dit M. Arguin, mais les physiciens ne parlent d’une découverte qu’à partir de 5 sigmas (1 chance sur 1 million que la différence observée soit due au hasard).

«C’est arrivé l’été dernier, on a eu l’excès le plus significatif jusqu’à maintenant, qui était de l’ordre de 4 sigmas. Mais on a pris plus de données et on a vu que, finalement, c’était une fluctuation statistique. Ça arrive de temps en temps, alors on reste circonspect. Mais cela reste intéressant parce que même si c’est seulement 2,5 sigmas, on a aussi vu d’autres excès apparentés qui vont dans le même sens», explique M. Arguin.

Alors peut-être, peut-être qu’on touche ici à quelque chose. Peut-être… Et comme l’explique ce compte-rendu de Science, cela demeure un des rares signaux dont le LHC a accouché d’une possible «nouvelle physique» qui sortirait du Modèle standard — on en a une demi-douzaine et ils sont tous plutôt faibles.

Pourquoi est-ce si long ? Ou plutôt : est-ce que c’est vraiment «long» ou est-ce qu’on devait s’attendre à ce que le LHC mette forcément des années avant de produire des observations qui sortiraient du MS ?

«C’est un peu décevant, on aurait espéré avoir déjà de la nouvelle physique, mais on savait dès le départ que c’était un pile ou face : c’était possible d’avoir des résultats qui sortent du Modèle standard après seulement quelques années, mais c’était aussi possible qu’on n’en ait pas», commente M. Arguin.

Une partie de l’explication tient à la formidable complexité de la «machine» elle-même. Les physiciens qui la gèrent marchent littéralement dans l’inconnu, personne n’ayant jamais fait fonctionner un appareil de ce type, alors ils n’augmentent sa puissance d’opération que petit à petit. Si bien que les données que le LHC a produites jusqu’à présent ne représente qu’environ 1 % de ce qu’il aura fourni d’ici la fin de sa vie utile.

Et «une autre explication possible, poursuit M. Arguin, est que même si on sait que le Modèle standard est plein de défauts, on n’a pas tant de contraintes que ça sur ce que pourrait être la nouvelle physique». Bref, ne sachant pas quelle forme prend ce qu’on cherche, on ne sait ni où, ni quoi chercher.

On peut se consoler par le fait que les données du LHC sont justement en train d’ajouter des «contraintes» sur ce que cette nouvelle physique peut être. Mais il reste qu’il n’est guère étonnant, dans ces conditions, qu’il faille être patient…

Lire les commentaires (14)  |  Commenter cet article






Mercredi 5 avril 2017 | Mise en ligne à 16h35 | Commenter Commentaires (6)

Faut-il arrêter de chercher l’«énergie noire» ?

(Image : ESO/AFP/archives La Presse

(Image : ESO/AFP/archives La Presse)

Ah ben ça, ce serait bien le proverbial «boutte de toute»… Alors que tout le monde se questionne depuis 20 ans sur la nature de «l’énergie noire», qui constituerait plus des deux tiers (68 %) de notre Univers, des physiciens viennent d’obtenir des résultats qui suggèrent qu’elle pourrait tout simplement ne pas exister. Ouch…

On sait depuis longtemps que l’Univers contient «autre chose» que la matière telle que nous la connaissons dans la vie de tous les jours. Quand on mesure la quantité de matière «normale» située au cœur des galaxies et la vitesse à laquelle les étoiles de ces mêmes galaxies tournent autour, on se rend rapidement compte qu’il manque «quelque chose» : la masse que l’on voit dans le centre des galaxies n’est pas suffisante pour retenir les étoiles. Compte tenu de la force d’attraction que cette masse exerce, les étoiles auraient dû échapper à sa gravité il y a longtemp. Or ce n’est ce qui se passe, alors il doit forcément y avoir «autre chose» au centre des galaxie, une «matière sombre» qui a une masse énorme mais qui n’est autrement pas détectable.

On calcule que la matière «normale» représente environ 5 % de ce que contient l’Univers, contre 27 % pour la matière sombre. Et le reste, soit la bagatelle des deux tiers du contenu de l’Univers (68 %) est encore plus nébuleux : l’énergie noire, qui serait derrière une accélération de l’expansion de l’Univers.

Maintenant, quand on dit que l’Univers «grandit», cela ne signifie pas seulement que les galaxies s’éloignent les unes des autres (ce qu’elles font bel et bien, en moyenne). Cela veut aussi dire que l’«espace-temps» se dilate. On se représente généralement l’espace qui nous entoure comme un sorte de «vide» lisse et immuable, mais il peut en fait être déformé par de très grosses masses. C’est ce qui explique la gravitation : l’espace-temps autour de la Terre, par exemple, est déformé de telle sorte qu’il «penche», pour ainsi dire, vers le plancher des vaches, d’où l’attraction terrestre. C’est aussi ce qui explique pourquoi, lors d’éclipses solaires, il est possible de voir des étoiles proches du Soleil qui n’apparaissent pas à l’endroit où elles sont réellement (à côté du Soleil alors qu’elles sont en réalité «derrière», par exemple) : la lumière de ces étoiles n’est pas attirée par le Soleil (il faut une masse pour l’être et la lumière n’en a pas) mais comme elle passe dans un espace-temps déformé par la masse du Soleil, elle change de direction (vu de la Terre, en tout cas).

On sait ça depuis belle lurette — c’est une conséquence de la Relativité d’Einstein —, mais dans les années 90, de nouvelles observations ont montré que cette dilatation s’accélère, sans que l’on sache trop pourquoi. Et c’est de cette accélération que les physiciens ont déduit l’existence d’une «énergie noire». On ignore tout de ce qu’elle peut bien être, mais elle serait le moteur derrière le fait que l’Univers se dilate de plus en plus vite.

Le rythme de cette expansion (on parle de 0,0000000000000002 % par seconde) est dicté par une bibitte physico-mathématique nommée métrique de Friedmann-Lemaître-Robertson-Walker, ou métrique FLRW. Bien des simulations de l’histoire de l’Univers ont utilisé ce métrique et ont obtenu des résultats tout à fait cohérents avec ce que les astronome observent autour de nous, ce qui suggère que c’est effectivement un bon «outil» pour décrire l’Univers. Jusque là, tout va bien…

Mais voilà, les mathématiques derrière tout ça sont si compliquées que le métrique FLRW part du principe que l’espace-temps est parfaitement uniforme partout dans l’Univers. Or c’est faux, on vient de le voir : toute masse tord l’espace-temps. Pire encore, on sait que la matière s’assemble en galaxies et en amas de galaxies qui forment des espèces de «filaments». Cela donne à l’Univers la structure d’une mousse, pleine d’énormes «trous» complètement vides. Alors aux endroits les plus denses, les masses freinent l’expansion de l’Univers, tandis qu’elle survient plus rapidement dans les vastes espaces où il n’y a rien.

Cela introduit donc des distorsions dans les simulations des cosmologistes et, d’après les travaux qu’une équipe hongroise vient de faire publier dans les Monthly Notices of the Royal Astronomical Society, le «besoin» de recourir à une énergie noire pour faire correspondre les observations et les simulations viendrait de là. L’énergie noire serait une sorte d’«illusion», un sous-produit des approximations mathématiques que l’on a longtemps été forcé de faire. Alors au lieu de présumer d’un espace-temps uniforme, Gabor Racz et Lazlo Dobos, de l’Université Eotvos Lorand, ont simulé un univers de 480 millions d’années-lumière de côté (c’est très petit, notons-le) qu’ils ont subdivisé en 1 million d’unités. Ils ont ensuite calculé un taux d’expansion individuel pour chacune d’elles. Puis, en faisant «rouler» leur simulation, ils ont obtenu des résultats qui ressemblent beaucoup à l’Univers réel, sans avoir recours à l’énergie noire. D’où leur conclusion qu’il s’agirait d’une illusion.

Attention, il faut souligner ici que les physiciens sont lloooooooiiiiiin d’être sur le point d’abandonner le concept d’énergie noire. Ce compte-rendu de Science en citent plusieurs qui gardent de gros doutes sur ces résultats. Alors pour l’instant, appelons ça une «hypothèse intéressante». Mais si les auteurs de l’étude, n’arrivent pas à convaincre mieux leurs collègues, il faudra conclure que, toute intéressante soit-elle, elle était fausse. L’avenir nous le dira…

P.S. Je profite de ce billet pour clarifier une chose, puisque la question m’a été posée à plusieurs reprises ces derniers jours : non, malgré tous les blogues qui ont fermé sur le site de La Presse, le mien ne sera pas éliminé. Je travaille pour Le Soleil, pas pour La Presse, et je continue ce blogue. Cependant, Science dessus-dessous ne sera plus accessible à partir de la page d’accueil de La Presse ni dans sa section «Sciences». Vous pourrez continuer de me trouver à l’adresse blogues.lapresse.ca/sciences ou passer par la page d’accueil du Soleil, ou encore par celle de Québec Science.

Lire les commentaires (6)  |  Commenter cet article






Mercredi 22 février 2017 | Mise en ligne à 14h59 | Commenter Commentaires (52)

Exoplanètes : vivement James-Webb…

Image : NASA/JPL

Image : NASA/JPL

Ça commence à ressembler à un pattern, il me semble. Une grande agence spatiale publie la découverte d’une ou plusieurs exoplanètes de taille comparable à celle de la Terre ; les médias s’emballent en parlant d’une «nouvelle Terre», d’une «planète habitable» ou d’autres variations sur ce thème ; puis, quand on y regarde de plus près, on se rend compte qu’on ne sait pas vraiment si c’est habitable, que la présence d’eau liquide est théoriquement possible mais qu’on ignore totalement s’il y en a et que, finalement, l’endroit est pas mal différent de la Terre, contrairement à ce que laissent entrevoir les «rendus d’artiste» publiés par les agences spatiales.

C’est l’impression que me fait l’annonce de cet après-midi, au sujet de sept planètes de taille terrestre qui orbitent autour d’une même étoile, Trappist-1. Je ne veux rien enlever au mérite de cette découverte ni à sa portée scientifique : le fait que pas moins de six de ces planètes peuvent théoriquement avoir de l’eau liquide à leur surface et qu’elles soient relativement proches de la Terre (39 années-lumière) en fait de très bonnes cibles pour le futur télescope James-Webb, qui doit être lancé l’an prochain et qui permettra de sonder l’atmosphère des exoplanètes. Pour la recherche de vie, le système Trappist-1 figurera sans doute parmi les premiers endroits qui seront scrutés — ce qui est, en soi, très excitant !

Mais justement, l’annonce d’aujourd’hui illustre parfaitement en quoi le James-Webb sera utile et en quoi on s’énerve (sans doute) pour pas grand-chose. Trappist-1 est une étoile de type «naine ultra-froide». Elle est 12 fois plus petite que le Soleil, à peine plus grosse que Jupiter en fait, et très, très, très peu brillante : 0,05 % de la puissance solaire, et 0,0004 % de sa lumière visible. Juste pour ça, parler d’une «nouvelle Terre» me semble exagéré.

L’étoile étant très petite, ses sept planètes orbitent très proche, ayant des périodes de révolution (temps qu’il faut pour faire le tour de l’étoile) allant de 1,5 à 20 jours. Cela explique pourquoi elles peuvent garder de l’eau liquide à leur surface malgré la faiblesse de leur «ampoule cosmique», mais cela signifie aussi que leurs périodes de rotation et de révolution sont toutes «verrouillées» : elles montrent toujours la même face à leur étoile. Pour trois d’entre elles, de l’eau liquide peut en principe subsister sur la face exposée, et pour trois autres (les trois plus proches de l’étoile), sur la face cachée ou pas loin.

Mais voilà, pour l’évaluer, on ne dispose pas de grand-chose de plus que de la puissance de l’étoile et de la proximité des planètes. Or l’atmosphère peut faire une énorme différence de ce point de vue : sans atmosphère pour retenir momentanément la chaleur du Soleil, la température moyenne de la Terre serait de –18°C au lieu de +15 °C et il n’existerait pas d’eau liquide, ou si peu, sur le «plancher des vaches». En outre, le fait que les planètes de Trappist-1 montrent toujours la même face à leur étoile n’est pas de bon augure : le froid sur la face cachée entraîne fort probablement la condensation des gaz (s’il y en a), ce qui a pour effet d’aspirer vers le «côté obscur» l’atmosphère de la face chaude. Peut-être que cela peut servir de base à une circulation atmosphérique qui réduirait les écarts de températures, mais cela engendrerait vraisemblablement des tempêtes cataclysmiques et quel qu’en soit le résultat, l’endroit est probablement inhospitalier.

En ce moment, on n’a très peu de moyens pour savoir quel genre d’atmosphère possède une exoplanète. En fait, la première observation «exoatmospérique» remonte à l’année dernière et portait justement sur le système Trappist-1, dont trois planètes étaient déjà connues. Et tout ce qu’on peut en dire, c’est que Trappist-1b et Trappist-1c n’ont pas une atmosphère d’hydrogène typique des géantes gazeuses…

Bref, vivement James-Webb (le chercheur de l’UdeM René Doyon aura d’ailleurs justement un instrument sur ce télescope), pour qu’on commence enfin à quitter, au moins un peu, l’univers des «théoriquement possible» et des fausses «nouvelles Terres».

Lire les commentaires (52)  |  Commenter cet article






publicité

  • Catégories



  • publicité





  • Calendrier

    mai 2017
    D L Ma Me J V S
    « avr    
     123456
    78910111213
    14151617181920
    21222324252627
    28293031  
  • Archives