Sciences dessus dessous

Archive de la catégorie ‘Général’

Les feux qui ravagent le secteur de Fort McMurray sont-ils le résultat du réchauffement climatique ? La question est un peu partout dans les médias ces jours-ci. Alors voyons voir…

La réponse courte est : ben non, voyons. Le réchauffement planétaire est un phénomène statistique, les feux de Fort McMurray sont une événement ponctuel, ce qui rend la question franchement un peu bébête. On ne peut pas imputer cet incendie à une tendance, pas davantage que l’on peut dire à un enfant «La moyenne de ta classe en maths est faible, alors tu dois être nul toi aussi». Les feux font partie de l’«ADN de la forêt boréale», ils y sont naturellement si fréquents que les essences d’arbres qui y poussent se sont littéralement adaptées aux feux. Alors il est absolument impossible de savoir si, sans réchauffement climatique, Fort McMurray aurait été ravagé quand même ou non — surtout à un moment où un El Nino historiquement fort est en train de se terminer.

Évolution 1979-2013 dans, de haut en bas, les températures maximales atteinte pendant une année, les minimums d'humidité relative et le nombre de jours sans pluie. (Source : Jolly et al., Nature, 2016)

Évolution 1979-2013 dans, de haut en bas, les températures maximales atteinte pendant une année, les minimums d'humidité relative et le nombre de jours sans pluie. (Source : Jolly et al., Nature, 2016)

Maintenant, une meilleure question est celle de savoir si le risque de feu de forêt est plus élevé que dans le passé à cause des changements climatiques. Mais ce que j’avais trouvé jusqu’à présent me laissait assez dubitatif. On peut lire ici et là qu’il est «prévu» que les feux deviennent plus fréquents «à l’échelle du Canada» (voir 3:30 à 4:00), et tout cela est vrai, mais cela ne dit rien sur le nord de l’Alberta en particulier, ni sur le moment présent. En fait, si l’on se fie à cette étude parue récemment dans Nature (par ailleurs très intéressante) sur l’évolution des conditions qui favorisent les feux de forêt dans le monde entre 1979 et 2013, on pourrait même croire qu’il n’y a pas de tendance claire dans ce secteur, dans un sens ou dans un autre. La période étudiée est un peu courte, j’y reviens tout de suite, mais regardez les cartes, dont certaines sont reproduites ci-contre : certaines montrent un risque accru pour le nord des Prairies, d’autres un risque plus faible, et d’autres aucun changement.

En outre, j’ai calculé une couple de moyennes météorologiques pour les dernières décennies à Fort McMurray, et n’ai rien trouvé de probant non plus. Les précipitations moyennes en avril furent de 20,7 mm entre 1944 à 1975, et de… 20,6 mm de 1976 à 2007. Les bourrasques les plus fortes en mai y furent en moyenne de  61 km/h de 1955 à 1974 et de 58 km/h de 1976 à 1995 — certaines variables ont apparemment été mesurées moins longtemps que d’autres.

Bref, je trouvais (et trouve toujours) que l’on faisait pas mal de millage sur pas grand-chose — des informations trop générales et des prédictions, au lieu d’avoir des données sur la région touchée — parce que les changements climatiques et leurs conséquences ne surviennent pas uniformément partout, loin de là,

Mais voilà, le chercheur du Service canadien des forêts Martin Girardin m’a envoyé deux graphiques, hier après-midi… Et là, messieurs-dames, là… on commence à jaser. Il faut garder à l’esprit, avertit-il, que ce sont-là des données qui n’ont pas été publiée dans la littérature scientifiques, mais cela reste bien évidemment une source très crédible.

Le premier porte sur la durée de la «saison des feux» autour de Fort McMurray entre 1910 et 2016 (donc beaucoup plus long que la période étudiée dans Nature), soit la période de l’année libre de neige telle qu’estimée par un modèle climatique tenant compte de divers facteurs, comme les températures, le couvert végétal, etc. On y voit très bien à quel point elle varie d’une année à l’autre, mais la tendance — la ligne rouge pointillée, qui est une «régression linéaire», soit grosso modo un outil statistique qui trace une droite dans un graphique de façon à la faire passer aussi proche que possible, en moyenne, de tous les points de donnée — est tout aussi nette : de 185 jours qu’elle durait il y a un siècle, elle s’étire maintenant sur 205 jours. La ligne bleue est quant à elle une moyenne mobile sur 30 ans — donc on calcule une première moyenne pour les 30 premières années de la période, puis une autre pour les années 2 à 31, puis 3 à 32, et ainsi de suite jusqu’aux 30 dernières.

(Graphique : Girardin/SCF)

(Graphique : Girardin/SCF)

Mais voilà, si la durée de la saison des feux est une variable dont l’importance se passe d’explication, elle ne dit rien sur les conditions qui prévalent quand la neige est fondue. La saison des feux a beau s’allonger, si le printemps et l’été sont plus humides, cela ne donnera pas plus d’incendies en bout de ligne. D’où l’intérêt de calculer un autre indicateur, soit l’«indice de sécheresse». Celui-ci est une sorte de «bibitte mathématique» un peu bizarre — tellement bizarre, en fait, que c’est ce que les chercheurs appellent une «valeur sans dimension», c’est-à-dire un chiffre sans unité (pas des degrés, pas des jours, pas des mètres, rien d’autre que le «nombre tout nu»). On le calcule en tenant compte d’une foule de facteurs comme la température maximale journalière, les précipitations quotidiennes, le nombre d’heures d’ensoleillement, l’évaporation, etc. Et pour les débuts de mai entre 1910 et cette année dans le secteur de Fort McMurray, cela donne ceci :

(Graphique : Girardin/FSC)

(Graphique : Girardin/FSC)

Le graphique ne la montre pas, mais M. Girardin a calculé la tendance : chaque année, l’indice de sécheresse au printemps à Fort McMurray augmente de 0,74 en moyenne. Ce qui signifie que, sur le dernier siècle, il a gagné en moyenne 74 points. Pour un indice qui tourne habituellement autour de 150-200, c’est vraiment considérable.

Encore une fois, il ne faut pas perdre de vue que rien de tout cela ne permet d’attribuer les feux de Fort McMurray au réchauffement planétaire. Mais sur la question de savoir si ces derniers ont fait augmenter le risque de feu de forêt dans cette région-là — pas «quelque part dans l’avenir», hein, pas «dans l’ensemble du Canada», pas «à l’échelle de la planète», non : très concrètement autour de cette ville et au cours des dernières décennies —, la réponse est très claire…

Lire les commentaires (16)  |  Commenter cet article






Mercredi 27 avril 2016 | Mise en ligne à 13h51 | Commenter Commentaires (51)

Combien y a-t-il de théories de l’évolution ?

992441-grande-partie-grace-agriculture-medecineUn seul texte, deux grandes questions. C’est un sacré bon ratio, je dois l’admettre — non sans une pointe de jalousie, d’ailleurs —, qu’a atteint cet article paru dans le dernier numéro de la revue Science, qui demande à la fois : peut-on faire de la bonne science si l’on est financé par de l’argent «gris» ? Et existe-t-il une seule théorie de l’évolution, ou plutôt deux ?

Le papier en question rapporte le malaise diffus entourant la subvention qu’ont reçu récemment des chercheurs américains, britanniques et suédois pour… comment dire… «revisiter» la théorie de l’évolution et possiblement l’«étendre». L’inconfort d’une partie de la communauté scientifique s’explique par le fait que l’argent, la jolie somme de 8,7 millions $, vient de la Fondation Templeton, une organisation très généreuse pour la recherche mais qui donne souvent dans le mélange des genres. La Fondation, mise sur pied dans les années 80 par un richissime fondamentaliste protestant, finance en effet la science dans la mesure où les projets peuvent éclairer les «grandes questions» comme la finalité de la vie humaine et amener de «nouvelles informations spirituelles».

Cela place sans doute l’organisation dans une zone grise, on pourra en discuter ici, mais je crois que le malaise est s’abord et avant tout un produit du contexte politique américain. Dans un pays où les créationnistes sont une minorité stridente et bien organisée qui a remporté son lot de victoires, on comprend aisément que les millions d’une Fondation qui mélange allègrement science et spiritualité fassent sourciller, surtout s’ils servent à déterminer si l’évolution est le résultat de mutations aléatoires ou s’il n’y a pas «autre chose» qui dirigerait lesdites mutations.

Mais le fait est que la Fondation Templeton a déjà répudié très publiquement le créationnisme et son rejeton nommé intelligent design, et qu’il existe des cas documentés de chercheurs dont les projets appuyés par Templeton ont abouti sur des résultats négatifs pour la religion sans que l’organisation en fasse de cas. Alors je me dis que le malaise tient bien davantage au contexte politique américain qu’aux agissements de la Fondation elle-même. Elle prête flanc à des interprétations méfiantes par ses visées spirituelles, soit, mais cela ne me semble pas être un cas de manipulation de la science. Corrigez-moi si je me trompe.

La seconde question me semble plus intéressante : y a-t-il — à quelques nuances près, inévitables dans les cercles académiques — une seule théorie de l’évolution, ou y en a-t-il une autre valable, nommée synthèse étendue de l’évolution, qui viendrait améliorer la première (et même «corriger» certains de ses principes fondamentaux) ?

Les différences entre la théorie de l’évolution telle qu’on l’entend généralement et cette synthèse étendue sont fort bien résumées dans cet article paru l’an dernier dans les Proceedings of the Royal Society – Biological Sciences (voir le tableau en page 2). Les voici en français, avec commentaires le cas échéants. Vous me direz ce que vous en pensez…

1. Sur la sélection naturelle. La théorie de l’évolution la considère (tant par le biais de la mortalité que par celui de la sexualité) comme le moteur principal, sinon unique, de l’adaptation des espèces à leur environnement. La synthèse étendue, elle, voit plutôt cela comme une relation à double sens : les organismes sont transformés par leur environnement, mais ils influencent également leur milieu de vie. Ce qui est tout à fait vrai : le simple fait qu’il y ait 20 % d’oxygène moléculaire dans l’atmosphère terrestre en témoigne. Avant l’arrivée des plantes/cyanobactéries et de la photosynthèse, il n’y en avait pas et l’air de la Terre aurait été asphyxiant pour les animaux actuels. Mais… mais je ne saisis pas trop comment l’évolution classique — à part en en faisant une lecture très rigide, presque caricaturale — exclut ces allers-retours. Enfin…

2. Sur les gènes. Pour la théorie classique, ils sont le seul vecteur par lequel une génération peut transmettre ses caractéristiques à la suivante. La synthèse étendue y ajoute la transmission épigénétique (les gènes demeurent les mêmes, mais leur expression peut être modulée sur plus d’une génération), physiologique (par exemple, par la qualité de l’alimentation qu’un parent fournit à ses enfants) et culturelle (les chimpanzés qui montrent à leurs enfants à se servir d’outils). Encore une fois, tout cela est vrai, mais… Les mécanismes de l’épigénétique ne sont-ils pas inscrits à quelque part dans les «vrais» gènes ? La capacité de certaines espèces de transmettre une culture qu’ont certaines espèces n’est-elle pas possible que parce que leurs gènes le permettent (et ont été sélectionnés «classiquement» dans le passé) ? Et sur le long terme, sur des milliers, voire des millions d’années, y a-t-il vraiment autre chose que les gènes qui persiste ?

3. Le hasard. La théorie classique dit que les mutations génétiques qui créent l’évolution surviennent de façon totalement aléatoire et que c’est l’environnement qui détermine lesquelles seront éliminées (la majorité) et lesquelles survivront. Pour la synthèse étendue, ce processus est biaisé par le développement des individus — j’imagine que les cerfs de l’île d’Anticosti, notoirement plus petits que leurs congénères continentaux à cause de la surpopulation de l’île mais pas vraiment différents d’un point de vue génétique, seraient une bon exemple, ici. Je comprends le point, mais de là à dire que ces histoires de développement peuvent diriger les mutations génétiques, il me semble qu’il y a un sacré pas… Non ?

4. Le rythme. En général, la théorie classique considère qu’à l’échelle des populations, les transformations se produisent lentement, alors que la synthèse étendue propose des rythmes différents d’une espèce à l’autre. Ou du moins, c’est de cette manière que les auteurs de l’article des Proceedings, tous des partisans de la synthèse étendue, décrivent les choses. Mais la théorie classique ne s’accomode-t-elle pas très bien de rythmes évolutifs différents selon l’espèce, et depuis longtemps ?

Les deux autres points me semblent être des variations sur les quatre que je viens de présenter. Alors nous en avons assez pour lancer la discussion, et votre avis là-dessus vaut certainement celui d’un journaliste : avons-nous vraiment une seconde théorie de l’évolution qui complète la première sur certains points, voire la corrige dans certains de ses fondements ? Ou est-ce que, comme le soulignent des biologistes cités dans Science, les «synthétistes» caricaturent la théorie de l’évolution, qui a déjà bien intégré les points qu’ils font valoir ?

Lire les commentaires (51)  |  Commenter cet article






Jeudi 21 avril 2016 | Mise en ligne à 12h49 | Commenter Commentaires (12)

La «cutitude» du jour (version Jour de la Terre)

Je n’écris habituellement rien à l’occasion du Jour de la Terre, qui est demain, ni pour à peu n’importe quel autre des innombrables «jour de» et «semaine de» qui existent. Parce que, d’une part, il y en a un tel paquet que j’ai franchement peur d’être avalé et que, d’autre part, les textes qui soulignent ces «occasions» artificielles sont généralement d’un ennui, mais d’un ennui… Enfin, passons.

Mais j’ai fait une exception cette année. Tout le monde, ou presque, veut faire sa petite part pour l’environnement en consommant de manière responsable. Mais voilà, personne n’a le temps de faire des recherches fastidieuses sur tous les produits disponibles et, si les écolabels servent justement à ça, ils sont devenus si nombreux qu’on peut raisonnablement les qualifier de zoo. Sérieux, chères autorités du monde entier, il serait grandement temps de faire un gros ménage là-dedans.

Mais d’ici à ce que cela se fasse, ce qui peut prendre un sacré bout de temps, je me suis dit qu’il serait utile d’aller dans quelques épiceries pour voir quels sont les logos les plus fréquents et d’en faire la recension critique : qu’est-ce que chacun veut dire, et quelles sont leurs limites. Les résultats seront publiés demain dans Le Soleil, mais je partage avec vous, en guise de bande-annonce, une petite trouvaille… disons… assez cute que j’ai faite en m’usant les yeux à lire les petits caractères derrière les contenants de savon à lessive.

Le test 301D de l’OCDE est souvent utilisé pour vanter les mérites écolos des produits ménagers. Et pour cause : c’est un test très sérieux qui mesure la «biodégradabilité facile» d’un produit, c’est-à-dire qu’il prouve (s’il est passé avec succès) que la substance, une fois dans l’environnement, sera rapidement digérée par des bactéries. Il en existe plusieurs variantes (la lettre après le nombre 301 réfère à ça), mais elles consistent essentiellement toutes grosso modo à mettre une assez grande quantité de produit en présence de peu de bactéries. Si, au bout de 28 jours, peu de microbes ont suffi à dégrader 60 ou 70 % (selon le sous-type de test) d’une bonne quantité de la substance, alors on peut présumer qu’elle est facilement et rapidement biodégradable.

Toute la gamme de produits nettoyants bien connus La Parisienne Biodégradable est passée par le 301D — enfin presque, j’y arrive tout de suite. On pourra arguer que ce test ne dit pas tout, qu’il ne renseigne que sur ce qui se passe en aval et ne dit rien sur les procédés de fabrication, qu’il existe des certifications environnementales beaucoup rigoureuses et complètes, etc. Tout cela est vrai, mais bon, s’assurer de la biodégradabilité de ses produits nettoyants est quand même mieux que rien — c’est même une partie importante de l’équation —, et le test 301D est la référence par excellence en cette matière. Alors donnons deux morceaux de robot à La Parisienne pour avoir soumis autant de ses produits à ces conditions. Vraiment.

Mais voilà, en examinant un sac de détersif en pastilles La Parisienne Biodégradable, j’ai vu un code différent : 302B. La marque était la même, le mot biodégradable était tout autant en évidence que sur les autres produits de cette gamme, le test provenait de l’OCDE… Mais ce n’était pas le même, ce n’était pas le fameux 301D.

Or les tests de la série 302 ne visent pas à établir si la biodégradation est rapide, mais simplement si l’on peut raisonnablement s’attendre à ce que la substance finisse par se dégrader. Un jour. Éventuellement. Contrairement aux 301, les test 302 vont, en proportion, utiliser beaucoup plus de bactéries pour dégrader beaucoup moins de produit. Et encore, lit-on dans la documentation de l’OCDE, «certains de ces tests peuvent être menés avec des microorganismes qui ont été préalablement exposés à la substance à tester, ce qui résulte fréquemment en une adaptation permettant une dégradation significativement supérieure du composé».

Bref, le mot biodégradable doit parfois être pris avec un certain grain de sel, parce qu’il ne signifie pas la même chose sur tous les emballages…

Lire les commentaires (12)  |  Commenter cet article






publicité

  • Catégories

  • Blogues sur lapresse



    publicité





  • Calendrier

    mai 2016
    D L Ma Me J V S
    « avr    
    1234567
    891011121314
    15161718192021
    22232425262728
    293031  
  • Archives