Sciences dessus dessous

Archive, avril 2017

Mercredi 26 avril 2017 | Mise en ligne à 14h31 | Commenter Commentaires (18)

Néandertal aurait-il vécu en… Californie ?!?

Des os faciles briser comme des côtes (photo) ont été trouvés intacts mais des fémurs, beaucoup plus robustes, ont été trouvés brisés, ce qui suggère que ce n'est pas un charognard en quête de moelle qui a fracassé les os de mastodontes du site Cerruti-Mastodon. (Crédit : Musée d'histoire naturelle de San Diego)

Des os faciles briser comme des côtes (photo) ont été trouvés intacts mais des fémurs, beaucoup plus robustes, ont été trouvés brisés, ce qui suggère que ce n'est pas un charognard en quête de moelle qui a fracassé les os de mastodontes du site Cerruti-Mastodon. (Crédit : Musée d'histoire naturelle de San Diego)

Vous dites que le genre humain est arrivé en Amérique il y a 14 000 ans ? Ou 15 000 ? On a 24 000 ici ! Qui dit mieux ? Qui dit mieux ?

Eh bien cette étude parue cet après-midi dans Nature vient d’aplatir toute la concurrence : 130 000 ans. Non, je n’ai pas écrit un zéro de trop : on parle bien de cent trente mille ans. Pour vous donner une idée de ce que cela représente, sachez qu’à cette époque, l’homme de Néanderthal se portait encore très bien, merci, qu’il restait même encore des Homo erectus dans les confins de l’Asie et que l’Homo sapiens moderne (c’est-à-dire «nous autres, là») n’était pas encore sorti d’Afrique.

L’idée même que tout bipède parlant autre que nous ait déjà vécu en Amérique a toujours été une sorte de science fiction — et on n’a d’ailleurs jamais trouvé d’ossements d’hominiens autres qu’Homo sapiens dans le Nouveau Monde. Et il y a fooooort à parier que nombre de paléontologues ne se laisseront pas convaincre facilement. Mais bon, l’article est paru dans Nature et il a été rédigé par des gens sérieux menés par Thomas Deméré, du Musée d’histoire naturel de San Diego, alors il vaut la peine que je résume ici ce qu’ils ont trouvé en quelques points. Ça nous fera une base de discussion intéressante.

Ce ne sont pas des ossements d’hominidés que rapportent Deméré et ses collègues, mais plutôt des preuves indirectes : des traces de percussion sur des os de mastodontes (un parent du mammouth) qui n’ont pas pu être le résultat d’autre chose que d’humanoïdes assez évolués et habiles pour manipuler des outils. Maintenant, il y a deux parties à leur article. La première détaille minutieusement les preuves de ces «percussions» ; la seconde explique les efforts de datation.

Les signes de frappe sont assez intrigants, je dois dire. Les chercheurs ont trouvé des fémurs de mastodonte brisés à un endroit très inhabituel, ainsi que des molaires brisées. Tous ces os portaient des marques de percussion. Des pierres portant elles aussi des marques de choc ont également trouvées, de même que des éclats de pierre et d’os dont la place d’origine a été retrouvée, dans certains cas. Ces éclats, notons-le, étaient concentrés autour des pierres qui auraient servi de marteau et d’enclume. Notons que ces marques ne correspondent pas à celles que laissent des carnivores ou des charognards qui tentent d’atteindre la moelle — et de toute manière, des os faciles à briser comme des côtes ont été trouvés intacts sur le même site.

L’endroit a ensuite été recouvert par l’eau d’un bras de rivière qui tout enterré sous des sédiments avant de se retirer. Cela soulève la possibilité, bien sûr, que le courant ait tout emporté là et fait s’entrechoquer les pierres et les os. Au nombre qu’il y a sur le site et compte tenu de leur disposition, les chances sont minces, mais ce n’est certainement pas impossible. Cependant, les auteurs soulignent que les ossements étaient enterrés dans des sédiments très fins et qui ne se seraient donc pas déposés là si le courant avait été autre chose que vraiment faible.

Alors supposons qu’il s’agit bien de percussion — ça en a tout l’air, mais mes yeux de journaliste font dire qu’ils auraient pas mal de misère à distinguer une marque de canine d’une trace de coup de roche. Alors mettons que c’est bien ce qu’on croit… Qu’est-ce qu’on a, alors, comme datation ?

Les os eux-mêmes ne contiennent pas ou très peu de carbone, et ne peuvent donc pas être datés au carbone-14. Il ne restait pas assez de collagène (i.e. la protéine la plus abondante chez les animaux, elle tient ensemble les cellules du corps) non plus dans les ossements pour le faire. Jusqu’à présent, cela avait empêché à peu près complètement l’estimation de l’âge des ossements — un essai avait été fait dans les années 90. Alors les chercheurs se sont tournés vers une autre technique nommé datation par luminescence, mais celle-ci n’a accouché que d’un «plancher» : «au moins 60-70 mille ans».

M. Deméré et ses collègues se sont enfin tournés vers une troisième technique, la datation uranium-thorium. Essentiellement, l’idée de base est que le thorium n’est absolument pas soluble dans l’eau ; les sédiments et ce qui baigne dans l’eau ne peuvent donc pas en contenir. Mais l’uranium, lui, est un peu plus soluble, si bien qu’il y en a presque toujours un peu (ne serait-ce que quelques parties par milliard) dans les étendues d’eau naturelle. Et parmi les isotopes de l’uranium, il y en a un, l’uranium-234, qui se décompose en thorium-230. Le ratio uranium:thorium donne donc une idée du temps passé depuis que l’eau s’est retirée.

C’est ce qu’on fait Deméré et consort. Ils ont mesuré l’uranium contenu dans les os et ont trouvé que les concentrations étaient cohérentes avec des os qui «prennent» de l’uranium en baignant dans l’eau pendant assez longtemps. Puis ils ont comparé le ratio uranium-thorium dans ces os avec celui d’une rivière qui coule tout près et en ont tiré l’«estimé fatidique», si j’ose m’exprimer ainsi : 130 000 ans.

L’équipe de paléontologues, il faut le noter, a encore une longue côte à remonter avant de faire accepter son hypothèse. Certains semblent prêts à accepter qu’il y a «quelque chose» de potentiellement sérieux là-dedans et qu’il vaut la peine de chercher d’autres indices, d’autres ont déjà annoncé qu’il en faudrait beaucoup plus que ça pour les impressionner.

À suivre, donc…

Lire les commentaires (18)  |  Commenter cet article






Mardi 25 avril 2017 | Mise en ligne à 13h31 | Commenter Commentaires (17)

Remplacer les chercheurs en médecine par… des robots ?

(Photo : Reuters/archives La Presse)

(Photo : Reuters/archives La Presse)

Emma Pierson, je vous présente Ahmed Alkhateeb. Ahmed, Emma. Vous avez pas mal de choses à vous dire…

Dans un article paru lundi dans le magazine en ligne Aeon, M. Alkhateeb, biologiste moléculaire de Harvard, propose une solution assez radicale, merci, aux problèmes qui plombent la recherche biomédicale. Il y a en effet beaucoup, beaucoup plus d’articles qui sont publiés dans cette branche des sciences que ce que n’importe quel chercheur est capable de lire : 1,2 million de papiers juste l’an dernier, déplore-t-il. Et une grande partie d’entre eux sont de faible qualité — comme la psychologie, les sciences biomédicales traversent une «crise de la reproductibilité», c’est-à-dire qu’une grande partie de ces études obtiennent des résultats que les autres labos du monde sont incapables de reproduire.

Alors, argue-t-il, comme la science est essentiellement une méthode, soit une série d’étapes qui mènent à la création de nouvelles connaissances, on peut donc l’exprimer sous la forme d’un algorithme. Et si la science est algorithmique, elle serait donc «automatisable» : on pourrait programmer des ordinateurs pour analyser des données, formuler de nouvelles hypothèses et concevoir les expériences qu’il faut mener pour les tester.

Évidemment, admet M. Alkhateeb, personne n’est encore parvenu à automatiser la recherche parce que les trois composantes principales de l’«algorithme» appartiennent à des sphères différentes : l’observation fait appel aux sens, la formulation de nouvelles hypothèses est une opération mentale et l’expérimentation est plus mécanique. Mais le potentiel est là, croit-il. Des outils informatiques très performants existent déjà pour analyser les données et même les textes, et le cerveau humain n’est tout simplement pas capable d’analyser et d’intégrer autant de données que ce qu’un ordinateur peut cruncher, si on me permet cet emprunt. La force de «raisonnement» et de calcul des ordinateurs pourrait donc faire avancer la science plus rapidement que ce que n’importe quel Homo sapiens est capable de faire.

Le même jour, coup du hasard, le magazine Wired s’est adonné à publier ce texte, ma foi, fort intéressant de la chercheuse en informatique de Stanford Emma Pierson. La position qu’elle y développe consiste essentiellement à dire à ses collègues d’écouter un peu plus les «non codeurs» — gens que le monde des high techs tend à ignorer un peu plus qu’il ne le devrait. Son texte porte surtout sur les questions d’éthique que les informaticiens, plus confortables avec les nombres et les raisonnements mathématiques, écartent à ses yeux trop souvent du revers de la main, mais elle y soulève deux points qui peuvent éclairer le débat que lance M. Alkhateeb.

Le premier est que, si leur côté systématique et plus ou moins «aveugle» leur donne une réputation de neutralité parfaite, les algorithmes n’en peuvent pas moins être biaisés. Le cas récent d’un algorithme utilisé par la justice américaine pour décider si un accusé peut être libéré en attendant son procès et qui s’est avéré défavoriser systématiquement les noirs l’illustre très bien. Ou du moins, comme le dit Mme Pierson dans cet autre texte, cela soulevait la question de savoir si un algorithme peut être «juste» (fair).

Mais en ce qui concerne l’idée de M. Alkhateeb, cela revient au même : un algorithme ne fait qu’appliquer une «recette» qui lui a forcément été dictée, ultimement, par des humains. Et en bon primates qu’ils sont, ils risquent fort d’accoucher d’une «recette» biaisée, ce qui n’est pas particulièrement encourageant pour l’avenir de la recherche automatisée.

Le second point tient dans cette citation de Mme Pierson : «J’ai déjà vu des informaticiens pourtant brillants montrer une telle méconnaissance des populations qu’ils devaient étudier que je leur ai éclaté de rire au visage.» En d’autres termes, on a beau avoir les plus grosses machines du monde et les meilleurs codeurs pour les exploiter, si personne ne sait pourquoi ni sur quoi on code, cela ne sert pas à grand-chose. Pour une éventuelle recherche biomédicale robotisée, cela implique qu’à un moment ou à un autre du processus, les informaticiens vont devoir intégrer ce que les vrais experts du domaine pensent. Ce qui implique alors d’ouvrir la porte à ces mêmes biais qu’on cherchait à éviter au départ…

Bref, je ne crois pas trop à cette idée d’automatiser la recherche, et j’ai comme l’impression que Mme Pierson n’y croirait pas non plus. Et vous ?

Lire les commentaires (17)  |  Commenter cet article






Vendredi 21 avril 2017 | Mise en ligne à 10h38 | Commenter Commentaires (14)

LHC : dernières nouvelles de l’Univers

Mine de rien, ça prend des très gros détecteurs pour mesurer l'infiniment petit... (Photo : CERN)

Le LHCb : mine de rien, ça prend des très gros détecteurs pour mesurer l'infiniment petit... (Photo : CERN)

C’est drôle comme le hasard fait les choses, des fois. J’avais une entrevue prévue cette semaine depuis un bon bout de temps avec le physicien de l’UdeM Jean-François Arguin pour faire un suivi sur les activités du Large Hadron Collider (LHC), le grand collisionneur de particules européens auquel on doit la découverte du boson de Higgs, en 2012. J’avais en tête une foule de questions sur le fait que, bien que l’on sache que le «Modèle standard» est très imparfait et que le LHC vise justement à trouver des observations qui ne cadrent pas dedans, les mises à jour publiées sur le site du CERN (le centre de recherche qui gère le LHC) parlent continuellement d’«excès non-significatifs», de «pas de déviation significative du Modèle standard», de «pas d’évidence convaincante de SUSY (une théorie sur ce qui existe au-delà du Modèle standard, ndlr)», etc.

En fait, les seules nouvelles particules qui ont été «découvertes» au LHC récemment ne sont que des états excités de particules qu’on connaissait déjà… Alors je voulais questionner M. Arguin sur les raisons de cette (apparente) stagnation : pourquoi est-il si difficile de dépasser le Modèle standard ? Comment se fait-il que, bien que l’on sache que ce Modèle n’explique que 5% de l’Univers (la matière «normale», mais on sait qu’il existe aussi une «matière noire» et une «énergie noire», dont on ignore tout), le LHC prenne tant de temps à produire des observations qu’on ne parvient pas à expliquer dans le cadre du MS ?

Puis est arrivé ceci, mardi : «Le LHCb trouve de nouveaux signes d’une possible déviation du Modèle standard». Quand on parle du loup…

Ce que le LHC fait, essentiellement, est d’accélérer des protons (des particules qui, avec les neutrons, forment le noyau des atomes) à des vitesses extrêmement proches de celle de la lumière, puis à les faire se heurter. Beaucoup de ces protons vont alors se défaire en «morceaux» (ils sont composés de particules nommées quarks) mais, dans l’orgie de particules qui s’ensuit, certaines vont fusionner pour en former de nouvelles. Celles-ci, dans la plupart des cas, auront une existence très fugace et se déferont aussitôt formées, projetant au passage d’autres particules. Tous ces «morceaux» sont alors recueillis et leurs énergies mesurées dans des détecteurs (le LHCb en est un) et, comme le Modèle standard nous dit déjà de manière assez précise comment ces particules se font et se défont (quand un électron heurte un antiélectron, par exemple, les deux particules s’annihilent et deux rayons gamma sont produits), alors on peut déduire ce qui s’est passé à partir des fragments recueillis.

Ce qui a été annoncé cette semaine, c’est une anomalie dans la décomposition d’une particule nommée méson B, qui est composée d’un quark et d’un anti-quark et qui subsiste typiquement 1 millième de milliardième de seconde. Parmi les «morceaux» que sa dégradation produit, on trouve soit une pair électron-antiélectron, soit une paire muon-antimuon — le muon étant un proche parent de l’électron, la principale différence étant sa masse 200 fois plus grande. Selon le Modèle standard, les mésons doivent produire à peu près autant d’une paire que de l’autre, mais le LHCb a mesuré une inégalité que le MS ne peut pas expliquer.

Pour l’heure, on ne peut pas encore parler d’une «découverte» parce que la chance pour qu’il s’agisse d’une fluctuation aléatoire est encore trop grande. «C’est un excès de 2,2 à 2,5 sigmas (une mesure statistique, ndlr), donc c’est quelque chose qui arrive par hasard de l’ordre de 1% du temps. Alors c’est vrai que c’est rare et que c’est intéressant», dit M. Arguin, mais les physiciens ne parlent d’une découverte qu’à partir de 5 sigmas (1 chance sur 1 million que la différence observée soit due au hasard).

«C’est arrivé l’été dernier, on a eu l’excès le plus significatif jusqu’à maintenant, qui était de l’ordre de 4 sigmas. Mais on a pris plus de données et on a vu que, finalement, c’était une fluctuation statistique. Ça arrive de temps en temps, alors on reste circonspect. Mais cela reste intéressant parce que même si c’est seulement 2,5 sigmas, on a aussi vu d’autres excès apparentés qui vont dans le même sens», explique M. Arguin.

Alors peut-être, peut-être qu’on touche ici à quelque chose. Peut-être… Et comme l’explique ce compte-rendu de Science, cela demeure un des rares signaux dont le LHC a accouché d’une possible «nouvelle physique» qui sortirait du Modèle standard — on en a une demi-douzaine et ils sont tous plutôt faibles.

Pourquoi est-ce si long ? Ou plutôt : est-ce que c’est vraiment «long» ou est-ce qu’on devait s’attendre à ce que le LHC mette forcément des années avant de produire des observations qui sortiraient du MS ?

«C’est un peu décevant, on aurait espéré avoir déjà de la nouvelle physique, mais on savait dès le départ que c’était un pile ou face : c’était possible d’avoir des résultats qui sortent du Modèle standard après seulement quelques années, mais c’était aussi possible qu’on n’en ait pas», commente M. Arguin.

Une partie de l’explication tient à la formidable complexité de la «machine» elle-même. Les physiciens qui la gèrent marchent littéralement dans l’inconnu, personne n’ayant jamais fait fonctionner un appareil de ce type, alors ils n’augmentent sa puissance d’opération que petit à petit. Si bien que les données que le LHC a produites jusqu’à présent ne représente qu’environ 1 % de ce qu’il aura fourni d’ici la fin de sa vie utile.

Et «une autre explication possible, poursuit M. Arguin, est que même si on sait que le Modèle standard est plein de défauts, on n’a pas tant de contraintes que ça sur ce que pourrait être la nouvelle physique». Bref, ne sachant pas quelle forme prend ce qu’on cherche, on ne sait ni où, ni quoi chercher.

On peut se consoler par le fait que les données du LHC sont justement en train d’ajouter des «contraintes» sur ce que cette nouvelle physique peut être. Mais il reste qu’il n’est guère étonnant, dans ces conditions, qu’il faille être patient…

Lire les commentaires (14)  |  Commenter cet article






publicité

  • Catégories

  • Blogues sur lapresse



    publicité





  • Calendrier

    avril 2017
    D L Ma Me J V S
    « mar   mai »
     1
    2345678
    9101112131415
    16171819202122
    23242526272829
    30  
  • Archives