Sciences dessus dessous

Archive de la catégorie ‘Physique’

Mercredi 16 décembre 2015 | Mise en ligne à 11h42 | Commenter Commentaires (27)

Les physiciens du LHC mettent un pied dans le noir…

La taille de ce qui est mesuré ne fait pas foi de celle de l'instrument, comme le montre l'énorme détecteur de particules ATLAS, au LHC. (Image : CERN)

La taille de ce qui est mesuré ne fait pas foi de celle de l'instrument, comme le montre l'énorme détecteur de particules ATLAS, au LHC. (Image : CERN)

Les physiciens du Large Hadron Collider, cet énorme accélérateur de particules de 30 km de circonférence à la frontière franco-suisse, se sont réunis hier pour divulguer les tout premiers résultats de la «Run-2», comme ils l’appellent, c’est-à-dire la seconde ronde de collisions de protons — et donc de production de nouvelles données. La première ronde, on s’en souvient, avait permis la découverte du boson de Higgs, en 2012, alors que cette année… Cette année, l’accélérateur a redémarré après deux ans de mise à niveau, et l’on croit maintenant toucher à «quelque chose». Enfin, peut-être. Et si ce quelque chose est bien réel, on ne sait guère trop ce que c’est.

«La situation est complètement différente de celle d’il y a trois ans, quand il y avait chez les physiciens une préférence très nette (et qui s’est avérée vraie) pour interpréter le signal d’alors, un diphoton de 125 GeV (gigaélectrons-volts, une mesure d’énergie minuscules dont on se sert, en physique, pour exprimer la masses des particules, ndlr) et de 4-lepton, comme étant le boson de Higgs du Modèle standard (soit grosso modo la somme de ce que l’on sait sur les particules qui composent la matière, ndlr)», écrit sur son blogue Résonaances le physicien Adam Falkowski, du Laboratoire de physique théorique d’Orsay.

Le «quelque chose» en question est un surplus d’«événements» inattendus que les instruments du LHC ont détecté à des énergies d’environ 750 GeV. Quand des particules s’entrechoquent à haute vitesse, elles «éclatent» en différents morceaux — différentes particules subatomiques comme des électrons et des quarks (particules qui composent les protons et les neutrons, qui eux-même composent les noyaux atomiques), mais aussi des photons (particules de lumière), etc. Le LHC est équipé de plusieurs détecteurs de natures différentes qui sont disposés en «pelures d’oignon» autour des sites où surviennent les collisions, afin de mesurer la nature et l’énergie de chacun de ces «morceaux» — les «événements» dont parlent les physiciens, ce sont chacune de ces détections.

Comme on s’en doute, plus les énergies impliquées sont élevées, et plus les événements sont rares. Cela suit d’ailleurs une courbe descendante que les physiciens calculent et qui leur donne une idée précise de ce que sera le «bruit de fond», soit la fréquence à laquelle les «événements» se produiraient à chaque énergie s’ils survenaient au hasard. Mais voilà, justement, les particules qui s’entrechoquent ne produisent pas leurs «morceaux» aléatoirement : chaque type de particules génèrent des «éclats» selon des patterns précis (X % de ceci, Y % de cela) et ces «morceaux», qui n’existent souvent que pendant d’infimes fractions de seconde, se décomposent ensuite en d’autres choses (de nouveau en suivant des patrons précis), ce qui fait que les chercheurs voient apparaître des «rebonds» sur leurs courbes d’événements.

CWRuI2oWIAAT7o5Les bosons, par exemple, se décomposent typiquement en «diphotons», c’est-à-dire en paire de photons d’énergies égales et partant dans des directions opposées. Et c’est en plein ce que les premiers résultats de la «Run-2» du LHC semblent montrer : un diphoton autour de 750 GeV, comme le montre le graphique ci-contre (la ligne rouge représente le bruit de fond). Le verbe «sembler», ici, est important parce qu’on est encore très loin d’avoir assez de données pour atteindre un niveau de certitude acceptable. Mais comme toutes les mesures du LHC sont prises en double par deux équipes indépendantes et qu’elles ont toutes deux «vu» la même chose, disons qu’il est permis de commencer à en jaser…

Avec les données que le LHC continuera de produire, on devrait savoir à pareille date l’an prochain s’il s’agit réellement d’une particule inconnue ou si ce n’est qu’un «blip» sur les radars — ce qui est encore entièrement possible. Dans le premier cas, remarquez, il n’est pas sûr que la petite nouvelle révolutionnera la physique. Certains des experts cités ici et estiment qu’il pourrait s’agir d’une particule très semblable au boson de Higgs qui ne chamboulera pas nécessairement nos connaissances. More of the same, quoi.

Mais même s’il reste encore énormément de vérifications à faire, le petit peu que l’on sait commence à ressembler drôlement à ce que les physiciens tentent de faire au LHC depuis le début : toucher l’inconnu, mettre un pied dans le noir, produire des données que le Modèle standard (que l’on sait très incomplet) ne peut expliquer. Et n’est-ce pas bien plus excitant que de prouver l’existence (exercice essentiel par ailleurs) d’un boson qu’à peu près tout le monde attendait depuis des années ?

P.S. Je m’en voudrais de passer sous silence un autre aspect de cette mise à jour du LHC. Comme on l’a souvent dit ici, la «matière» comme nous la connaissons ne forme qu’environ 15 % de la matière de l’Univers, le reste étant nommé pour l’instant «matière sombre», faute de savoir ce que c’est. On en connaît l’existence parce que quand on observe les galaxies, par exemple, on peut estimer de façon assez précise la quantité de matière qu’il y a en son centre à partir de ce que nos télescopes permettent de voir. Mais le hic, c’est que cette quantité est toujours insuffisante pour que la gravité du cœur de la galaxie puisse «retenir» les étoiles qui gravitent autour. À cause de leur vitesse, celles-ci devraient en principe s’échapper dans l’espace. Mais comme elles ne le font pas, on déduit qu’il doit y avoir «autre chose» au centre des galaxies, une «matière sombre» qui serait très massive mais qui n’interagirait que très peu (hormis par gravité) avec la matière «normale». Une hypothèse assez répandue veut que cette matière sombre s’explique par le fait que toute particule soit accompagnée d’un «superpartenaire» fantôme, très massif mais qui n’interagit avec rien part par gravité. La deuxième ronde du LHC a toujours été vue comme une première occasion de tester cette hypothèse nommée supersymétrie, ou SUSY pour faire court et les premiers résultats viennent apparemment de rayer de la carte plusieurs versions de cette SUSY, lit-on sur le blogue Not Even Wrong du mathématicien de l’Université Columbia Peter Woit.

Lire les commentaires (27)  |  Commenter cet article






Mercredi 14 octobre 2015 | Mise en ligne à 11h53 | Commenter Commentaires (20)

La petite histoire du Grand K : vers une fin heureuse ?

À vue de nez, on se dit que cela devrait être une question pour des élèves du primaire : qu’est-ce qu’un kilogramme ? Et d’une certaine manière, ça l’est. Depuis 1889, il existe un «kilogramme étalon», soit un cylindre de platine et d’iridium, qui est conservé sous de strictes conditions au Bureau international des poids et mesures, à Paris. Officiellement, un kilo, c’est ça, répondrait un gamin de 3e année, ajoutant sans doute «pfff, bébé facile».

Mais voilà, le kilogramme est la dernière unité du Système international dont la définition est basée sur un étalon matériel au lieu d’une loi de la physique, et il y a une raison pour cela : tout objet peut gagner ou perdre des atomes au contact de l’air ou de tout autre corps, et sa masse peut ainsi varier dans le temps. Au XIXe siècle, en plus de l’étalon officiel, des copies rigoureusement identiques avaient été fabriquées en même temps — et leurs masses divergent maintenant d’environ 50 microgrammes, ce qui est bien embêtant pour une telle référence.

On cherche donc depuis les années 70 à redéfinir le kilo en fonction d’une loi de la physique, de la même façon que l’on s’est débarrassé des mètres en platine et en iridium pour redéfinir le mètre comme la distance que parcourt la lumière dans le vide absolu en 1/299 792 458 seconde. De cette manière, on évite les fluctuations.

Mais voilà, en ce qui concerne le kilogramme, ce projet s’est vraiment avéré une «question de grands». Depuis des décennies, deux techniques de mesures se font concurrence sans parvenir à rallier la communauté scientifique, ne serait-ce que parce qu’elles donnent des résultats divergents.

L’une d’elle consiste à peser le kilo avec une balance de Watt, un instrument extraordinairement précis qui utilise des forces électriques (que l’on peut contrôler avec une grande exactitude) pour jauger de la masse d’un objet. Comme ces forces se mesurent en courant et en voltage et que ceux-ci ont déjà des unités de mesure reposant sur des lois de la physique, cela permettrait d’y «accoter» le kilogramme également. L’autre avenue, menée par une équipe internationale du nom de «Projet Avogadro», consiste essentiellement à compter le nombre d’atomes de silicium-28 qu’il faut pour obtenir exactement le poids du kilo-étalon ; de là, puisque ce nombre peut être exprimé en mole — le «nombre d’Avogadro» est le nombre de particules qu’il y a dans une mole, soit 6,022 x 1023, ce qui représente le nombre d’atomes de carbone-12 qu’il faut pour faire 12 grammes — et que la mole est déjà une unité du SI intégrée à une foule de formules en physique, cela donne des «chemins» pour exprimer le kilo en fonction de constantes physiques immuables.

Jusqu’à tout récemment, cette dernière avenue avait besoin d’être raffinée, car ses mesures comportaient encore une trop grande part d’incertitude (30 parties par milliards alors que l’on visait 20 ppb), mais ce fut réglé l’été dernier. Or de toute manière, les deux méthodes donnaient des résultats qui divergeaient par environ 175 ppb, et l’on a mis longtemps à trouver ce qui clochait. Cela paraissait tellement insoluble que certains chercheurs commençaient même à envisager de simplement faire la moyenne des deux, c’est tout dire…

Mais on n’atteindra apparemment pas un désespoir mathématique aussi complet, rapporte ici la revue Nature. En plus de l’incertitude réduite du projet Avogadro — et d’autres constantes physique, je saute quelques détails —, de nouvelles mesures ont été prises un peu partout dans le monde, dont une d’ailleurs au Conseil national de la recherche à Ottawa, qui ont grandement refermé l’écart de 175 ppb. D’autres mesures à venir pourraient encore, bien sûr, remettre la pagaille de ce bel ordre, mais le Bureau international des poids et mesures se réunit cette semaine pour discuter de la marche à suivre.

Si tout se passe bien, on pourrait avoir un «kilo tout neuf» et, surtout, inchangeable, d’ici quelques années…

Lire les commentaires (20)  |  Commenter cet article






Vendredi 4 septembre 2015 | Mise en ligne à 11h05 | Commenter Commentaires (17)

Enfin une petite craque dans le Modèle standard ?

(Photo : CERN)

(Photo : CERN)

Ça fait longtemps qu’on attend ça : une petite craque dans le Modèle standard (qui est grosso modo la somme de ce que la physique connaît sur la matière et les forces qui gouvernent l’Univers). Oh, pas grand-chose, entendons-nous. Elle est toute menue, si fine, même, qu’au risque de crever la balloune avant même qu’elle ne soit soufflée, il n’est pas sûr qu’elle existe vraiment. Mais ne boudons pas notre plaisir…

Jusqu’à maintenant, les données produites au grand collisionneur de particules du Centre européen de recherche sur le nucléaire, le Large Hadron Collider (LHC), se sont montrées relativement «sages». Elles ont permis de confirmer l’existence du célèbre boson de Higgs, ce qui constituait bien sûr une percée majeure, mais ce boson faisait déjà partie du Modèle standard, et les caractéristiques que le LHC lui a trouvées tombent de ce que j’en sais pas mal dans les fourchettes compatibles avec le modèle standard — pour l’instant du moins, car n’oublions pas que le plus grand accélérateur du monde vient de reprendre ses activités, après deux ans de pause et de mise à niveau.

Or des données accumulées en 2011-2012 montrent justement le genre de petite anomalie, de petite «bosse statistique» impossible à prévoir à partir de ce que l’on sait, qui pourrait ouvrir une fenêtre sur de la «nouvelle physique», rapporte l’équipe du LHCb (les physiciens du LHC sont divisés en plusieurs équipes afin de voir si toutes décèlent les mêmes choses) dans un article qui sera publié dans les Physical Review Letters, mais disponible depuis juin sur le site arxiv.org.

L’origine de cette «petite bosse» remonte à une particule très fugace nommée méson B, qui est composé d’une sorte de quark (les quarks sont les particules élémentaires qui composent, notamment, les protons et les neutrons, qui eux-mêmes forment le noyau des atomes) et d’un «anti-quark bottom», une particule d’antimatière. En principe, au bout de leur brève existence qui se mesure en nanoseconde, ces mésons B doivent se dégrader également (en terme de masse) en deux sortes de particules nommées taus et muons — qui sont dans la «parenté», disons, des électrons. C’est du moins ce qui est prévu par le Modèle standard. Mais voilà, les mesures rapportées par l’équipe du LHCb montrent plus de taus que de muons.

Pour l’instant, le phénomène n’atteint pas le degré de certitude statistique très sévère auquel s’astreignent les physiciens avant de prononcer le mot découverte. Il faudra donc attendre d’avoir plus de données avant d’ouvrir une bière à la santé de cette nouvelle potentielle bestiole — encore que c’est vendredi, une journée où les motifs de réjouissance deviennent valables à partir de 1 ou 2 sigmas. Mais le fait est que deux autres labos (en Californie et au Japon) ont déjà rapporté cette anomalie ces dernières années. Jamais à des degrés de certitude suffisants, mais disons que ça commence à faire pas mal de monde…

Lire les commentaires (17)  |  Commenter cet article






publicité

  • Catégories

  • Blogues sur lapresse



    publicité





  • Calendrier

    mai 2016
    D L Ma Me J V S
    « avr    
    1234567
    891011121314
    15161718192021
    22232425262728
    293031  
  • Archives