Sciences dessus dessous

Vendredi 21 avril 2017 | Mise en ligne à 10h38 | Commenter Commentaires (10)

LHC : dernières nouvelles de l’Univers

Mine de rien, ça prend des très gros détecteurs pour mesurer l'infiniment petit... (Photo : CERN)

Le LHCb : mine de rien, ça prend des très gros détecteurs pour mesurer l'infiniment petit... (Photo : CERN)

C’est drôle comme le hasard fait les choses, des fois. J’avais une entrevue prévue cette semaine depuis un bon bout de temps avec le physicien de l’UdeM Jean-François Arguin pour faire un suivi sur les activités du Large Hadron Collider (LHC), le grand collisionneur de particules européens auquel on doit la découverte du boson de Higgs, en 2012. J’avais en tête une foule de questions sur le fait que, bien que l’on sache que le «Modèle standard» est très imparfait et que le LHC vise justement à trouver des observations qui ne cadrent pas dedans, les mises à jour publiées sur le site du CERN (le centre de recherche qui gère le LHC) parlent continuellement d’«excès non-significatifs», de «pas de déviation significative du Modèle standard», de «pas d’évidence convaincante de SUSY (une théorie sur ce qui existe au-delà du Modèle standard, ndlr)», etc.

En fait, les seules nouvelles particules qui ont été «découvertes» au LHC récemment ne sont que des états excités de particules qu’on connaissait déjà… Alors je voulais questionner M. Arguin sur les raisons de cette (apparente) stagnation : pourquoi est-il si difficile de dépasser le Modèle standard ? Comment se fait-il que, bien que l’on sache que ce Modèle n’explique que 5% de l’Univers (la matière «normale», mais on sait qu’il existe aussi une «matière noire» et une «énergie noire», dont on ignore tout), le LHC prenne tant de temps à produire des observations qu’on ne parvient pas à expliquer dans le cadre du MS ?

Puis est arrivé ceci, mardi : «Le LHCb trouve de nouveaux signes d’une possible déviation du Modèle standard». Quand on parle du loup…

Ce que le LHC fait, essentiellement, est d’accélérer des protons (des particules qui, avec les neutrons, forment le noyau des atomes) à des vitesses extrêmement proches de celle de la lumière, puis à les faire se heurter. Beaucoup de ces protons vont alors se défaire en «morceaux» (ils sont composés de particules nommées quarks) mais, dans l’orgie de particules qui s’ensuit, certaines vont fusionner pour en former de nouvelles. Celles-ci, dans la plupart des cas, auront une existence très fugace et se déferont aussitôt formées, projetant au passage d’autres particules. Tous ces «morceaux» sont alors recueillis et leurs énergies mesurées dans des détecteurs (le LHCb en est un) et, comme le Modèle standard nous dit déjà de manière assez précise comment ces particules se font et se défont (quand un électron heurte un antiélectron, par exemple, les deux particules s’annihilent et deux rayons gamma sont produits), alors on peut déduire ce qui s’est passé à partir des fragments recueillis.

Ce qui a été annoncé cette semaine, c’est une anomalie dans la décomposition d’une particule nommée méson B, qui est composée d’un quark et d’un anti-quark et qui subsiste typiquement 1 millième de milliardième de seconde. Parmi les «morceaux» que sa dégradation produit, on trouve soit une pair électron-antiélectron, soit une paire muon-antimuon — le muon étant un proche parent de l’électron, la principale différence étant sa masse 200 fois plus grande. Selon le Modèle standard, les mésons doivent produire à peu près autant d’une paire que de l’autre, mais le LHCb a mesuré une inégalité que le MS ne peut pas expliquer.

Pour l’heure, on ne peut pas encore parler d’une «découverte» parce que la chance pour qu’il s’agisse d’une fluctuation aléatoire est encore trop grande. «C’est un excès de 2,2 à 2,5 sigmas (une mesure statistique, ndlr), donc c’est quelque chose qui arrive par hasard de l’ordre de 1% du temps. Alors c’est vrai que c’est rare et que c’est intéressant», dit M. Arguin, mais les physiciens ne parlent d’une découverte qu’à partir de 5 sigmas (1 chance sur 1 million que la différence observée soit due au hasard).

«C’est arrivé l’été dernier, on a eu l’excès le plus significatif jusqu’à maintenant, qui était de l’ordre de 4 sigmas. Mais on a pris plus de données et on a vu que, finalement, c’était une fluctuation statistique. Ça arrive de temps en temps, alors on reste circonspect. Mais cela reste intéressant parce que même si c’est seulement 2,5 sigmas, on a aussi vu d’autres excès apparentés qui vont dans le même sens», explique M. Arguin.

Alors peut-être, peut-être qu’on touche ici à quelque chose. Peut-être… Et comme l’explique ce compte-rendu de Science, cela demeure un des rares signaux dont le LHC a accouché d’une possible «nouvelle physique» qui sortirait du Modèle standard — on en a une demi-douzaine et ils sont tous plutôt faibles.

Pourquoi est-ce si long ? Ou plutôt : est-ce que c’est vraiment «long» ou est-ce qu’on devait s’attendre à ce que le LHC mette forcément des années avant de produire des observations qui sortiraient du MS ?

«C’est un peu décevant, on aurait espéré avoir déjà de la nouvelle physique, mais on savait dès le départ que c’était un pile ou face : c’était possible d’avoir des résultats qui sortent du Modèle standard après seulement quelques années, mais c’était aussi possible qu’on n’en ait pas», commente M. Arguin.

Une partie de l’explication tient à la formidable complexité de la «machine» elle-même. Les physiciens qui la gèrent marchent littéralement dans l’inconnu, personne n’ayant jamais fait fonctionner un appareil de ce type, alors ils n’augmentent sa puissance d’opération que petit à petit. Si bien que les données que le LHC a produites jusqu’à présent ne représente qu’environ 1 % de ce qu’il aura fourni d’ici la fin de sa vie utile.

Et «une autre explication possible, poursuit M. Arguin, est que même si on sait que le Modèle standard est plein de défauts, on n’a pas tant de contraintes que ça sur ce que pourrait être la nouvelle physique». Bref, ne sachant pas quelle forme prend ce qu’on cherche, on ne sait ni où, ni quoi chercher.

On peut se consoler par le fait que les données du LHC sont justement en train d’ajouter des «contraintes» sur ce que cette nouvelle physique peut être. Mais il reste qu’il n’est guère étonnant, dans ces conditions, qu’il faille être patient…

Lire les commentaires (10)  |  Commenter cet article

 

Mardi 18 avril 2017 | Mise en ligne à 16h43 | Commenter Commentaires (12)

OGM et pesticides : pour y voir plus clair

(Photo : archives La Presse/AFP)

(Photo : archives La Presse/AFP)

L’adoption des OGM a-t-elle diminué ou accru le recours aux pesticides ? Il s’en est dit et il s’en est écrit, des choses à ce propos depuis quelques années, mais elles ne sont malheureusement pas souvent bien appuyées/documentées, déplore le chercheur de l’Université du Wyoming Andrew Kniss dans ce formidable article paru dans le dernier numéro de Nature Communications. Le papier a la grande qualité d’être en accès libre et, autre qualité appréciable, c’est à mon sens un des textes les plus éclairants qui ait été écrit à ce sujet depuis longtemps. Un incontournable pour quiconque veut parler d’OGM et de pesticides sans raconter n’importe quoi.

En caricaturant un peu, mais à peine, on peut dire que les efforts pour documenter cette question jusqu’à maintenant se sont en grande partie résumés à additionner la masse de tous les pesticides utilisés en agriculture et à comparer les totaux avant et après l’arrivée des OGM. C’est grosso modo ce que cette étude de 2012 a fait, c’est ce que ce reportage a fait, c’est le réflexe premier (et normal) qu’ont bien des gens : regarder les quantités totales de pesticides.

L’ennui, c’est que cela met trop de substances différentes sur un même pied pour être un exercice utile. Si, par exemple, on remplace un herbicide très toxique par un autre qui l’est moins, il est bien possible que l’on doive en épandre davantage ; et si l’on doit utiliser deux fois plus du nouveau produit, mais qu’il est cinq fois moins toxique, ce sera clairement un gain pour l’environnement et/ou la santé humaine. Or en ne mesurant que la masse dispersée dans les champs, on conclura (à tort) que la situation est pire qu’avant.

Alors pour éviter ce genre d’écueil, M. Kniss a restreint son analyse aux herbicides (sa spécialité) et il fait deux choses, essentiellement. La première, c’est qu’au lieu de compter les kg d’herbicides, il a compté le nombre de «traitements par surface» : si, par exemple, pour 1 hectare de champ de maïs on recommande généralement d’appliquer 1 kg de glyphosate, alors cela compte pour «1 traitement» ; si on applique 1 kg/ha de glyphosate dans un champ donné, mais qu’on y ajoute la moitié de la «dose» recommandée d’un autre herbicide, alors cela donne «1,5 traitement» ; et ainsi de suite.

Dans l’ensemble, M. Kniss a trouvé une tendance à la hausse dans le maïs, le soya et le coton — trois cultures où plus de 90 % des surfaces cultivées aux États-Unis sont génétiquement modifiées pour résister aux herbicides. Mais cette tendance est généralisée à toute l’agriculture, souligne-t-il, notamment parce que les fermiers ont en partie délaissé la pratique des labours. Labourer la terre a des avantages (les graines «prennent» mieux, par exemple), mais un champ labouré garde moins son eau, va donc s’éroder davantage et perdre des nutriments essentiels pour les plantes. Les agriculteurs mettent donc de plus en plus la pédale douce sur les labours, mais comme cette pratique avait aussi comme avantage de détruire mécaniquement beaucoup de mauvaises herbes, ils doivent donc compenser en utilisant plus d’herbicides.

Or dans les chiffres de M. Kniss, cette hausse est plus faible pour le maïs, le soya et le coton — en moyenne entre 0,01 et 0,05 «traitements» de plus chaque année entre 1990 et 2015 — que dans trois autres cultures où il n’y a aucun OGM sur le marché et qu’il prend comme point de comparaison : 0,06 à 0,09 traitements de plus chaque année pour le riz, blé d’hiver et blé de printemps.

De là, on peut donc conclure que les OGM ont bel et bien réduit les quantités d’herbicides dont on aurait eu besoin sans le secours du génie génétique, mais pas par des marges énormes, disons-le. Cela semble d’ailleurs être un thème récurrent dans ce dossier dernièrement…

Maintenant, quand on tient compte de la toxicité, quel portrait cela nous donne ? Pour le savoir, le chercheur du Wyoming a utilisé deux indicateurs simples, mais brillants. D’abord, le nombre de doses mortelles (ou LD50, soit la dose suffisante pour tuer 50 % des rats à qui elle est administrée) d’herbicides épandues en moyenne par hectare. Comme la toxicité varie d’un herbicide à l’autre, la LD50 varie tout autant — entre 112 et 9000 milligrammes par kg de poids corporel, dans les produits homologués aux États-Unis —, mais le fait de tout ramener à une «dose» produisant un effet précis (tuer la moitié d’un groupe) permet de mesurer la toxicité beaucoup plus intelligemment qu’en comptant des kg. (Ou plutôt, une partie de la toxicité, j’y reviens à l’instant.)

Résultat : contrairement aux quantités totales d’herbicides utilisées, la toxicité aigüe n’a pas augmenté, bien au contraire. Dans les trois cultures où les OGM sont fortement présents, elle a même littéralement fondu entre 1990 et 2015, passant 7000 à 820 LD50/ha pour le maïs, de 2500 à 500 LD50/ha pour le soya et de 1500 à 800 pour le coton (encore qu’on note une hausse en fin de période dans ce dernier cas). Ce n’est pas seulement le résultat du génie génétique — le riz a suivi la même tendance —, il faut le préciser, mais disons qu’il est on ne peut plus clair que la conversion massive de ces cultures aux OGM n’a pas empêché une baisse massive de la toxicité aigüe des herbicides employés.

Maintenant, comme la LD50 est un indicateur de toxicité «aigüe» (forte dose sur une courte période), mais qu’il existe aussi une toxicité «chronique» (faible dose à long terme), M. Kniss a répété l’exercice en remplaçant la LD50 par la «dose sans effet observable» (NOEL, en anglais) — laquelle indique, grosso modo, jusqu’où on peut augmenter la dose avant que les animaux s’en ressentent à long terme. Le portrait change alors pour la peine : le maïs s’est maintenu à environ 1,5 millions de doses sans effet par hectare (NOEL/ha) entre 1990 et 2015, le soya a beaucoup reculé (de 0,4 à 0,1 million de NOEL/ha) mais le coton, lui, a augmenté (de 1 à 1,8 million de NOEL/ha). Bref, pas de tendance claire.

Mais il y a tout de même deux choses à faire ressortir ici. Comme le note M. Kniss sur son blogue, la plupart des gains en toxicité réalisés depuis 1990 n’ont pas grand-chose à voir avec les OGM. Ils ont plutôt découlé de décisions gouvernementales de retirer du marché des produits particulièrement toxiques. Par exemple, dans la culture du maïs, l’alachlore et le cyanazine représentaient 85 % de la toxicité aigüe des herbicides utilisés dans la culture du maïs en 1990, mais des restrictions en ont ensuite réduit l’utilisation jusqu’à presque rien.

Cela dit, cependant, les anti-OGM font souvent valoir que le «problème» avec les OGM est qu’ils ont mené à une explosion des quantités de glyphosate (un herbicide extrêmement efficace mais pour lequel les OGM les plus utilisés dans le monde, dit «Round Up Ready», sont conçus pour résister) utilisés dans nos champs — la Fondation David-Suzuki faisait encore du millage là-dessus pas plus tard que la semaine dernière. Or l’étude de M. Kniss montre à quel point tout le tapage que certains groupes font sur le glyphosate peut être mal fondé, justement parce que c’est un herbicide relativement peu toxique.

C’est la toxicité chronique qui est le point de mesure important, ici, puisque les doses qui percolent jusque dans les rivières et les traces qui persistent dans certains aliments sont très, très loin des doses aigües. Et en 2015, si le glyphosate représentait 26 % des herbicides épandus dans le maïs, 43 % dans le soya et 45 % dans le coton, il ne représentaient que 0,1, 0,3 et 3,5 % de la toxicité chronique dans ces cultures.

Alors comme le dit M. Kniss sur son blogue : oui, il faut trouver des façons de moins dépendre des herbicides, et l’augmentation généralisée de leur utilisation est véritablement «inquiétante». Mais il semble que les OGM ont contribué à limiter cette hausse, tant en intensité qu’en toxicité, encore que pas par des marges spectaculaires.

Et à moins de 4 % de la toxicité chronique, est-ce qu’il n’est pas évident que tout le foin qu’on fait sur les OGM et le glyphosate relève d’abord de la lubie idéologique ? Que sans dire que le glyphosate est l’équivalent de l’eau pure (c’est toxique, bien évidemment), il y a des problèmes bien pires que ça à régler et qu’il faudrait peut-être passer à autre chose ?

Lire les commentaires (12)  |  Commenter cet article

 

Vendredi 14 avril 2017 | Mise en ligne à 11h26 | Commenter Commentaires (23)

Les pitbulls, suite et fin…

(Photo : Pascal Ratthé, archives Le Soleil)

(Photo : Pascal Ratthé, archives Le Soleil)

Alors récapitulons. Nous aurons une loi sur les chiens dangereux qui donnera plusieurs pouvoirs aux municipalités, et même obligera l’euthanasie d’un chien ayant tué ou blessé gravement quelqu’un (le projet de loi est ici). On peut argumenter tant qu’on veut sur des détails du PL128, cela n’en reste pas moins une bonne chose dans l’ensemble, ne serait-ce que pour éviter ces situations absurdes où un propriétaire irresponsable et têtu conserve un animal ayant déjà attaqué/blessé plusieurs fois sans que ni la police, ni les gouvernements ne puissent agir.

Et nous aurons aussi un règlement, adopté par décret dans le cadre de cette future loi, qui interdira la possession d’un pitbull. En ce qui me concerne, ce ne sera pas une grosse perte — qui a vraiment besoin de ce genre de chien ? Mais le fait est qu’on peut dire exactement la même chose de toutes les races canines, alors la vraie question est : si ce n’est pas une mauvaise chose, a-t-on des motifs raisonnables de penser que c’en sera une bonne ? Que cela diminuera le nombre de morsures graves survenant chaque année au Québec ?

C’est une question qui a été étudiée de deux manières, essentiellement. La première consiste à examiner les cas d’attaques graves et à calculer la proportion qui a été causées par des pitbulls. Cela a donné des chiffres spectaculaires qui ont abondamment circulé sur les réseaux sociaux émanant de groupes comme dogbites.org ou Animal 24-7, qui attribuent aux pitbulls environ les deux tiers des décès par morsure aux États-Unis. Cependant, comme je l’ai noté l’été dernier avec d’autres, ces chiffres-là ne valent pas 2¢ : ils ne tiennent compte que d’une petite partie des attaques, l’identification d’une race issue d’un croisement comme les pitbulls est particulièrement problématique (même pour des experts, voir ici et ici, et si vous n’avez toujours pas vu l’excellent épisode que Découverte a consacré à ce dossier, rattrapez-vous tout de suite !), les sources sur lesquelles ces sites-là s’appuient parfois pour l’identification se contredisent assez souvent et, lorsque ces groupes identifient eux-même la race d’un chien agressif, on peut certainement questionner leur neutralité puisqu’ils militent très, très fortement pour l’interdiction des pitbulls.

Maintenant, il y a des données plus sérieuses qui ont été publiées dans des revues médicales et qui adoptent essentiellement la même approche : parmi les cas de morsures graves nécessitant une hospitalisation et/ou une chirurgie, les pitbulls sont-il anormalement nombreux ? Certaines, souvent citées, avancent que ceux-ci sont derrière plus de la moitié des hospitalisations de gens mordus par des chiens, et elles ont été publiées dans la littérature scientifique, ce qui indique une meilleure qualité que ce qu’on trouve sur dogbites.org. Mais quand on y regarde bien, ces données-là ne sont, en fait, pas tellement moins pires, pour deux raisons.

Primo, l’identification de la race canine est fait «de mémoire» par les victimes ou leur famille, ce qui pose les mêmes problèmes de fiabilité que pour dogbites.org et compagnie.

Deuxio, et c’est encore plus grave, même si l’on présume que toutes les identifications étaient correctes, il demeure qu’une race n’a été identifiée que dans une minorité de cas — seulement 82 cas sur 228 dans cette étude, soit à peine plus du tiers, et 269 sur 551 (49 % des cas) pour celle-ci. Cela laisse donc entre la moitié et les deux tiers des cas de morsures «dans le noir», pour ainsi dire, ce qui ouvre toute grande la porte à ce que les statisticiens appellent un biais de sélection : comme les races canines ne sont pas toutes également connues du grand public, et comme les pitbulls sont beaucoup plus médiatisés que les autres races, il est pratiquement certain qu’ils sont sur-représentés dans les cas d’attaque où une race a été identifiée. Ce qui gonfle artificiellement leur dangerosité dans ces études-là.

Est-ce que ce biais de sélection déforme un peu, beaucoup ou «passionnément» la réalité dans les cas qui nous intéresse ? Impossible de le savoir uniquement à partir de ces données-là. Et quand on n’est même pas capable de dire si nos chiffres sont un portrait «à peu près fidèle» ou «complètement tronqué» du sujet, on n’est pas vraiment plus avancé que si on n’avait pas de données du tout… Alors autant dire qu’on ne peut donc rien faire avec ça — à part du marketing politique si l’on tient vraiment à faire mal paraître les pitbulls.

Ce qui nous amène à l’autre grande manière de savoir si le bannissement de ces chiens, en plus de ne pas faire de tort, donne des résultats positifs. Puisque ces interdictions sont des mesures assez populaires dans l’opinion publique, plusieurs pays ou régions dans le monde en ont adoptées. On peut donc faire des études de type avant-après pour en mesurer les effets.

Évidemment, comme il n’existe pas de données parfaites, celles-là ne le sont pas non plus. Si on détecte une baisse des attaques et qu’on veut l’attribuer à l’interdiction, il faut présumer qu’il n’y avait pas déjà de tendance à la baisse. Et de la même manière, si on ne détecte rien, on ne peut pas conclure que le bannissement fut sans effet sans présumer qu’il n’y aurait pas eu de hausse des attaques en gardant les pitbulls dans le portrait.

Mais ces limitations sont somme toute assez banales ; en tout cas, elles ne sont pas un «trou noir» qui discrédite complètement les données, comme le biais de sélection le fait avec les études chirurgicales dont je parle plus haut. Et il demeure que ces études avant-après ont accouché de résultats remarquablement constants. Qu’elles aient compté les morsures en général, ou les visites à l’urgence ou les hospitalisations, qu’elles aient porté sur de courtes périodes ou sur de plus longues, elles ne trouvent jamais (sauf en Catalogne, notons-le) de baisses des morsures/blessures après l’interdiction des pitbulls. Ni au Royaume-Uni, ni en Espagne, ni en Australie, ni en Irlande, ni au Pays-Bas, ni au Canada. Pas même en Ontario, cas pourtant souvent cité par ceux qui demandent un bannissement.

Certes, il y a aussi cette étude avant-après menée au Manitoba et dont certains passages sont phrasés d’une manière laissant croire que l’interdiction des pitbulls a donné des résultats probants — c’est l’opinion de ses auteurs. Mais quand on regarde leurs chiffres, on n’y trouve franchement pas grand-chose pour appuyer leur position. Ils n’ont pas trouvé de baisse statistiquement significative des hospitalisations pour morsures dans les villes qui ont interdit les pitbulls (sauf en comparant toutes les villes, avec ou sans interdiction, en début de période avec, en fin de période, seulement les villes qui avaient interdit les pitbulls, mais rendu là, on est dans la torture de données). En comparant le ratio de morsures graves de Winnipeg avec celui d’une autre ville qui a continué de tolérer les pitbulls, Brandon — dont la population est 15 fois moindre et le taux de criminalité beaucoup plus faible, ce qui donne un point de comparaison assez bizarre, mais passons —, les auteurs ont trouvé que cela diminuait plus vite à Winnipeg, ce qu’ils considèrent être une «preuve» de ce qu’ils avancent. Mais leurs chiffres montrent par ailleurs que, même après 16 ans d’interdiction des pitbulls, Winnipeg avait toujours un taux de morsures graves supérieur à celui de Brandon (2,81 par 100 000 personnes et par année vs 2,50/100 000).

Bref, on ne peut pas aller plus loin à partir de cet article-là qu’en disant que l’interdiction des pitbulls a peut-être eu un effet sur la santé publique au Manitoba et que si ce fut le cas, il s’agissait d’un facteur somme toute bien secondaire.

Alors je vous pose la question : est-ce qu’on peut vraiment s’attendre à ce que l’interdiction des pitbulls ait un effet sur la sécurité des rues du Québec ? On me dira que cela ne peut pas faire grand-mal, ce qui, soit, est tout-à-fait vrai. Mais je répète qu’on peut dire la même chose de toutes les autres races canines. Aux fins de la discussion, je vous soumets que les seules données qu’on a pour espérer un effet positif sont de mauvaise, voire très mauvaise qualité — à l’exception du cas catalan, encore une fois, mais cela ne reste toujours qu’une seule étude. Les meilleurs chiffres que l’on a, sans être parfaits, laissent plutôt entrevoir une totale absence d’effets, et ils sont cohérents avec plusieurs études et revues de littérature montrant que la race canine est un bien piètre prédicteur du comportement et de la dangerosité d’un chien.

Je n’espère rien de cette mesure. Et j’ai beau approuver le PL128 dans l’ensemble, le futur règlement qui l’accompagnera pour interdire les pitbulls me semble tenir davantage du calcul politicien que de la bonne politique de santé publique.

Lire les commentaires (23)  |  Commenter cet article

 

publicité

  • Catégories

  • Blogues sur lapresse



    publicité





  • Calendrier

    avril 2017
    D L Ma Me J V S
    « mar    
     1
    2345678
    9101112131415
    16171819202122
    23242526272829
    30  
  • Archives