Sciences dessus dessous

Archive, avril 2017

Mardi 25 avril 2017 | Mise en ligne à 13h31 | Commenter Commentaires (5)

Remplacer les chercheurs en médecine par… des robots ?

(Photo : Reuters/archives La Presse)

(Photo : Reuters/archives La Presse)

Emma Pierson, je vous présente Ahmed Alkhateeb. Ahmed, Emma. Vous avez pas mal de choses à vous dire…

Dans un article paru lundi dans le magazine en ligne Aeon, M. Alkhateeb, biologiste moléculaire de Harvard, propose une solution assez radicale, merci, aux problèmes qui plombent la recherche biomédicale. Il y a en effet beaucoup, beaucoup plus d’articles qui sont publiés dans cette branche des sciences que ce que n’importe quel chercheur est capable de lire : 1,2 million de papiers juste l’an dernier, déplore-t-il. Et une grande partie d’entre eux sont de faible qualité — comme la psychologie, les sciences biomédicales traversent une «crise de la reproductibilité», c’est-à-dire qu’une grande partie de ces études obtiennent des résultats que les autres labos du monde sont incapables de reproduire.

Alors, argue-t-il, comme la science est essentiellement une méthode, soit une série d’étapes qui mènent à la création de nouvelles connaissances, on peut donc l’exprimer sous la forme d’un algorithme. Et si la science est algorithmique, elle serait donc «automatisable» : on pourrait programmer des ordinateurs pour analyser des données, formuler de nouvelles hypothèses et concevoir les expériences qu’il faut mener pour les tester.

Évidemment, admet M. Alkhateeb, personne n’est encore parvenu à automatiser la recherche parce que les trois composantes principales de l’«algorithme» appartiennent à des sphères différentes : l’observation fait appel aux sens, la formulation de nouvelles hypothèses est une opération mentale et l’expérimentation est plus mécanique. Mais le potentiel est là, croit-il. Des outils informatiques très performants existent déjà pour analyser les données et même les textes, et le cerveau humain n’est tout simplement pas capable d’analyser et d’intégrer autant de données que ce qu’un ordinateur peut cruncher, si on me permet cet emprunt. La force de «raisonnement» et de calcul des ordinateurs pourrait donc faire avancer la science plus rapidement que ce que n’importe quel Homo sapiens est capable de faire.

Le même jour, coup du hasard, le magazine Wired s’est adonné à publier ce texte, ma foi, fort intéressant de la chercheuse en informatique de Stanford Emma Pierson. La position qu’elle y développe consiste essentiellement à dire à ses collègues d’écouter un peu plus les «non codeurs» — gens que le monde des high techs tend à ignorer un peu plus qu’il ne le devrait. Son texte porte surtout sur les questions d’éthique que les informaticiens, plus confortables avec les nombres et les raisonnements mathématiques, écartent à ses yeux trop souvent du revers de la main, mais elle y soulève deux points qui peuvent éclairer le débat que lance M. Alkhateeb.

Le premier est que, si leur côté systématique et plus ou moins «aveugle» leur donne une réputation de neutralité parfaite, les algorithmes n’en peuvent pas moins être biaisés. Le cas récent d’un algorithme utilisé par la justice américaine pour décider si un accusé peut être libéré en attendant son procès et qui s’est avéré défavoriser systématiquement les noirs l’illustre très bien. Ou du moins, comme le dit Mme Pierson dans cet autre texte, cela soulevait la question de savoir si un algorithme peut être «juste» (fair).

Mais en ce qui concerne l’idée de M. Alkhateeb, cela revient au même : un algorithme ne fait qu’appliquer une «recette» qui lui a forcément été dictée, ultimement, par des humains. Et en bon primates qu’ils sont, ils risquent fort d’accoucher d’une «recette» biaisée, ce qui n’est pas particulièrement encourageant pour l’avenir de la recherche automatisée.

Le second point tient dans cette citation de Mme Pierson : «J’ai déjà vu des informaticiens pourtant brillants montrer une telle méconnaissance des populations qu’ils devaient étudier que je leur ai éclaté de rire au visage.» En d’autres termes, on a beau avoir les plus grosses machines du monde et les meilleurs codeurs pour les exploiter, si personne ne sait pourquoi ni sur quoi on code, cela ne sert pas à grand-chose. Pour une éventuelle recherche biomédicale robotisée, cela implique qu’à un moment ou à un autre du processus, les informaticiens vont devoir intégrer ce que les vrais experts du domaine pensent. Ce qui implique alors d’ouvrir la porte à ces mêmes biais qu’on cherchait à éviter au départ…

Bref, je ne crois pas trop à cette idée d’automatiser la recherche, et j’ai comme l’impression que Mme Pierson n’y croirait pas non plus. Et vous ?

Lire les commentaires (5)  |  Commenter cet article






Vendredi 21 avril 2017 | Mise en ligne à 10h38 | Commenter Commentaires (14)

LHC : dernières nouvelles de l’Univers

Mine de rien, ça prend des très gros détecteurs pour mesurer l'infiniment petit... (Photo : CERN)

Le LHCb : mine de rien, ça prend des très gros détecteurs pour mesurer l'infiniment petit... (Photo : CERN)

C’est drôle comme le hasard fait les choses, des fois. J’avais une entrevue prévue cette semaine depuis un bon bout de temps avec le physicien de l’UdeM Jean-François Arguin pour faire un suivi sur les activités du Large Hadron Collider (LHC), le grand collisionneur de particules européens auquel on doit la découverte du boson de Higgs, en 2012. J’avais en tête une foule de questions sur le fait que, bien que l’on sache que le «Modèle standard» est très imparfait et que le LHC vise justement à trouver des observations qui ne cadrent pas dedans, les mises à jour publiées sur le site du CERN (le centre de recherche qui gère le LHC) parlent continuellement d’«excès non-significatifs», de «pas de déviation significative du Modèle standard», de «pas d’évidence convaincante de SUSY (une théorie sur ce qui existe au-delà du Modèle standard, ndlr)», etc.

En fait, les seules nouvelles particules qui ont été «découvertes» au LHC récemment ne sont que des états excités de particules qu’on connaissait déjà… Alors je voulais questionner M. Arguin sur les raisons de cette (apparente) stagnation : pourquoi est-il si difficile de dépasser le Modèle standard ? Comment se fait-il que, bien que l’on sache que ce Modèle n’explique que 5% de l’Univers (la matière «normale», mais on sait qu’il existe aussi une «matière noire» et une «énergie noire», dont on ignore tout), le LHC prenne tant de temps à produire des observations qu’on ne parvient pas à expliquer dans le cadre du MS ?

Puis est arrivé ceci, mardi : «Le LHCb trouve de nouveaux signes d’une possible déviation du Modèle standard». Quand on parle du loup…

Ce que le LHC fait, essentiellement, est d’accélérer des protons (des particules qui, avec les neutrons, forment le noyau des atomes) à des vitesses extrêmement proches de celle de la lumière, puis à les faire se heurter. Beaucoup de ces protons vont alors se défaire en «morceaux» (ils sont composés de particules nommées quarks) mais, dans l’orgie de particules qui s’ensuit, certaines vont fusionner pour en former de nouvelles. Celles-ci, dans la plupart des cas, auront une existence très fugace et se déferont aussitôt formées, projetant au passage d’autres particules. Tous ces «morceaux» sont alors recueillis et leurs énergies mesurées dans des détecteurs (le LHCb en est un) et, comme le Modèle standard nous dit déjà de manière assez précise comment ces particules se font et se défont (quand un électron heurte un antiélectron, par exemple, les deux particules s’annihilent et deux rayons gamma sont produits), alors on peut déduire ce qui s’est passé à partir des fragments recueillis.

Ce qui a été annoncé cette semaine, c’est une anomalie dans la décomposition d’une particule nommée méson B, qui est composée d’un quark et d’un anti-quark et qui subsiste typiquement 1 millième de milliardième de seconde. Parmi les «morceaux» que sa dégradation produit, on trouve soit une pair électron-antiélectron, soit une paire muon-antimuon — le muon étant un proche parent de l’électron, la principale différence étant sa masse 200 fois plus grande. Selon le Modèle standard, les mésons doivent produire à peu près autant d’une paire que de l’autre, mais le LHCb a mesuré une inégalité que le MS ne peut pas expliquer.

Pour l’heure, on ne peut pas encore parler d’une «découverte» parce que la chance pour qu’il s’agisse d’une fluctuation aléatoire est encore trop grande. «C’est un excès de 2,2 à 2,5 sigmas (une mesure statistique, ndlr), donc c’est quelque chose qui arrive par hasard de l’ordre de 1% du temps. Alors c’est vrai que c’est rare et que c’est intéressant», dit M. Arguin, mais les physiciens ne parlent d’une découverte qu’à partir de 5 sigmas (1 chance sur 1 million que la différence observée soit due au hasard).

«C’est arrivé l’été dernier, on a eu l’excès le plus significatif jusqu’à maintenant, qui était de l’ordre de 4 sigmas. Mais on a pris plus de données et on a vu que, finalement, c’était une fluctuation statistique. Ça arrive de temps en temps, alors on reste circonspect. Mais cela reste intéressant parce que même si c’est seulement 2,5 sigmas, on a aussi vu d’autres excès apparentés qui vont dans le même sens», explique M. Arguin.

Alors peut-être, peut-être qu’on touche ici à quelque chose. Peut-être… Et comme l’explique ce compte-rendu de Science, cela demeure un des rares signaux dont le LHC a accouché d’une possible «nouvelle physique» qui sortirait du Modèle standard — on en a une demi-douzaine et ils sont tous plutôt faibles.

Pourquoi est-ce si long ? Ou plutôt : est-ce que c’est vraiment «long» ou est-ce qu’on devait s’attendre à ce que le LHC mette forcément des années avant de produire des observations qui sortiraient du MS ?

«C’est un peu décevant, on aurait espéré avoir déjà de la nouvelle physique, mais on savait dès le départ que c’était un pile ou face : c’était possible d’avoir des résultats qui sortent du Modèle standard après seulement quelques années, mais c’était aussi possible qu’on n’en ait pas», commente M. Arguin.

Une partie de l’explication tient à la formidable complexité de la «machine» elle-même. Les physiciens qui la gèrent marchent littéralement dans l’inconnu, personne n’ayant jamais fait fonctionner un appareil de ce type, alors ils n’augmentent sa puissance d’opération que petit à petit. Si bien que les données que le LHC a produites jusqu’à présent ne représente qu’environ 1 % de ce qu’il aura fourni d’ici la fin de sa vie utile.

Et «une autre explication possible, poursuit M. Arguin, est que même si on sait que le Modèle standard est plein de défauts, on n’a pas tant de contraintes que ça sur ce que pourrait être la nouvelle physique». Bref, ne sachant pas quelle forme prend ce qu’on cherche, on ne sait ni où, ni quoi chercher.

On peut se consoler par le fait que les données du LHC sont justement en train d’ajouter des «contraintes» sur ce que cette nouvelle physique peut être. Mais il reste qu’il n’est guère étonnant, dans ces conditions, qu’il faille être patient…

Lire les commentaires (14)  |  Commenter cet article






Mardi 18 avril 2017 | Mise en ligne à 16h43 | Commenter Commentaires (14)

OGM et pesticides : pour y voir plus clair

(Photo : archives La Presse/AFP)

(Photo : archives La Presse/AFP)

L’adoption des OGM a-t-elle diminué ou accru le recours aux pesticides ? Il s’en est dit et il s’en est écrit, des choses à ce propos depuis quelques années, mais elles ne sont malheureusement pas souvent bien appuyées/documentées, déplore le chercheur de l’Université du Wyoming Andrew Kniss dans ce formidable article paru dans le dernier numéro de Nature Communications. Le papier a la grande qualité d’être en accès libre et, autre qualité appréciable, c’est à mon sens un des textes les plus éclairants qui ait été écrit à ce sujet depuis longtemps. Un incontournable pour quiconque veut parler d’OGM et de pesticides sans raconter n’importe quoi.

En caricaturant un peu, mais à peine, on peut dire que les efforts pour documenter cette question jusqu’à maintenant se sont en grande partie résumés à additionner la masse de tous les pesticides utilisés en agriculture et à comparer les totaux avant et après l’arrivée des OGM. C’est grosso modo ce que cette étude de 2012 a fait, c’est ce que ce reportage a fait, c’est le réflexe premier (et normal) qu’ont bien des gens : regarder les quantités totales de pesticides.

L’ennui, c’est que cela met trop de substances différentes sur un même pied pour être un exercice utile. Si, par exemple, on remplace un herbicide très toxique par un autre qui l’est moins, il est bien possible que l’on doive en épandre davantage ; et si l’on doit utiliser deux fois plus du nouveau produit, mais qu’il est cinq fois moins toxique, ce sera clairement un gain pour l’environnement et/ou la santé humaine. Or en ne mesurant que la masse dispersée dans les champs, on conclura (à tort) que la situation est pire qu’avant.

Alors pour éviter ce genre d’écueil, M. Kniss a restreint son analyse aux herbicides (sa spécialité) et il fait deux choses, essentiellement. La première, c’est qu’au lieu de compter les kg d’herbicides, il a compté le nombre de «traitements par surface» : si, par exemple, pour 1 hectare de champ de maïs on recommande généralement d’appliquer 1 kg de glyphosate, alors cela compte pour «1 traitement» ; si on applique 1 kg/ha de glyphosate dans un champ donné, mais qu’on y ajoute la moitié de la «dose» recommandée d’un autre herbicide, alors cela donne «1,5 traitement» ; et ainsi de suite.

Dans l’ensemble, M. Kniss a trouvé une tendance à la hausse dans le maïs, le soya et le coton — trois cultures où plus de 90 % des surfaces cultivées aux États-Unis sont génétiquement modifiées pour résister aux herbicides. Mais cette tendance est généralisée à toute l’agriculture, souligne-t-il, notamment parce que les fermiers ont en partie délaissé la pratique des labours. Labourer la terre a des avantages (les graines «prennent» mieux, par exemple), mais un champ labouré garde moins son eau, va donc s’éroder davantage et perdre des nutriments essentiels pour les plantes. Les agriculteurs mettent donc de plus en plus la pédale douce sur les labours, mais comme cette pratique avait aussi comme avantage de détruire mécaniquement beaucoup de mauvaises herbes, ils doivent donc compenser en utilisant plus d’herbicides.

Or dans les chiffres de M. Kniss, cette hausse est plus faible pour le maïs, le soya et le coton — en moyenne entre 0,01 et 0,05 «traitements» de plus chaque année entre 1990 et 2015 — que dans trois autres cultures où il n’y a aucun OGM sur le marché et qu’il prend comme point de comparaison : 0,06 à 0,09 traitements de plus chaque année pour le riz, blé d’hiver et blé de printemps.

De là, on peut donc conclure que les OGM ont bel et bien réduit les quantités d’herbicides dont on aurait eu besoin sans le secours du génie génétique, mais pas par des marges énormes, disons-le. Cela semble d’ailleurs être un thème récurrent dans ce dossier dernièrement…

Maintenant, quand on tient compte de la toxicité, quel portrait cela nous donne ? Pour le savoir, le chercheur du Wyoming a utilisé deux indicateurs simples, mais brillants. D’abord, le nombre de doses mortelles (ou LD50, soit la dose suffisante pour tuer 50 % des rats à qui elle est administrée) d’herbicides épandues en moyenne par hectare. Comme la toxicité varie d’un herbicide à l’autre, la LD50 varie tout autant — entre 112 et 9000 milligrammes par kg de poids corporel, dans les produits homologués aux États-Unis —, mais le fait de tout ramener à une «dose» produisant un effet précis (tuer la moitié d’un groupe) permet de mesurer la toxicité beaucoup plus intelligemment qu’en comptant des kg. (Ou plutôt, une partie de la toxicité, j’y reviens à l’instant.)

Résultat : contrairement aux quantités totales d’herbicides utilisées, la toxicité aigüe n’a pas augmenté, bien au contraire. Dans les trois cultures où les OGM sont fortement présents, elle a même littéralement fondu entre 1990 et 2015, passant 7000 à 820 LD50/ha pour le maïs, de 2500 à 500 LD50/ha pour le soya et de 1500 à 800 pour le coton (encore qu’on note une hausse en fin de période dans ce dernier cas). Ce n’est pas seulement le résultat du génie génétique — le riz a suivi la même tendance —, il faut le préciser, mais disons qu’il est on ne peut plus clair que la conversion massive de ces cultures aux OGM n’a pas empêché une baisse massive de la toxicité aigüe des herbicides employés.

Maintenant, comme la LD50 est un indicateur de toxicité «aigüe» (forte dose sur une courte période), mais qu’il existe aussi une toxicité «chronique» (faible dose à long terme), M. Kniss a répété l’exercice en remplaçant la LD50 par la «dose sans effet observable» (NOEL, en anglais) — laquelle indique, grosso modo, jusqu’où on peut augmenter la dose avant que les animaux s’en ressentent à long terme. Le portrait change alors pour la peine : le maïs s’est maintenu à environ 1,5 millions de doses sans effet par hectare (NOEL/ha) entre 1990 et 2015, le soya a beaucoup reculé (de 0,4 à 0,1 million de NOEL/ha) mais le coton, lui, a augmenté (de 1 à 1,8 million de NOEL/ha). Bref, pas de tendance claire.

Mais il y a tout de même deux choses à faire ressortir ici. Comme le note M. Kniss sur son blogue, la plupart des gains en toxicité réalisés depuis 1990 n’ont pas grand-chose à voir avec les OGM. Ils ont plutôt découlé de décisions gouvernementales de retirer du marché des produits particulièrement toxiques. Par exemple, dans la culture du maïs, l’alachlore et le cyanazine représentaient 85 % de la toxicité aigüe des herbicides utilisés dans la culture du maïs en 1990, mais des restrictions en ont ensuite réduit l’utilisation jusqu’à presque rien.

Cela dit, cependant, les anti-OGM font souvent valoir que le «problème» avec les OGM est qu’ils ont mené à une explosion des quantités de glyphosate (un herbicide extrêmement efficace mais pour lequel les OGM les plus utilisés dans le monde, dit «Round Up Ready», sont conçus pour résister) utilisés dans nos champs — la Fondation David-Suzuki faisait encore du millage là-dessus pas plus tard que la semaine dernière. Or l’étude de M. Kniss montre à quel point tout le tapage que certains groupes font sur le glyphosate peut être mal fondé, justement parce que c’est un herbicide relativement peu toxique.

C’est la toxicité chronique qui est le point de mesure important, ici, puisque les doses qui percolent jusque dans les rivières et les traces qui persistent dans certains aliments sont très, très loin des doses aigües. Et en 2015, si le glyphosate représentait 26 % des herbicides épandus dans le maïs, 43 % dans le soya et 45 % dans le coton, il ne représentaient que 0,1, 0,3 et 3,5 % de la toxicité chronique dans ces cultures.

Alors comme le dit M. Kniss sur son blogue : oui, il faut trouver des façons de moins dépendre des herbicides, et l’augmentation généralisée de leur utilisation est véritablement «inquiétante». Mais il semble que les OGM ont contribué à limiter cette hausse, tant en intensité qu’en toxicité, encore que pas par des marges spectaculaires.

Et à moins de 4 % de la toxicité chronique, est-ce qu’il n’est pas évident que tout le foin qu’on fait sur les OGM et le glyphosate relève d’abord de la lubie idéologique ? Que sans dire que le glyphosate est l’équivalent de l’eau pure (c’est toxique, bien évidemment), il y a des problèmes bien pires que ça à régler et qu’il faudrait peut-être passer à autre chose ?

Lire les commentaires (14)  |  Commenter cet article






publicité

  • Catégories



  • publicité





  • Calendrier

    avril 2017
    D L Ma Me J V S
    « mar    
     1
    2345678
    9101112131415
    16171819202122
    23242526272829
    30  
  • Archives