Sciences dessus dessous

Archive de la catégorie ‘Médecine’

Lundi 3 avril 2017 | Mise en ligne à 12h03 | Commenter Commentaires (5)

Cancer du sein : anatomie d’une incertitude

(Photo : archives La Presse/AP)

(Photo : archives La Presse/AP)

Ça faisait longtemps que la question m’intriguait : comment se fait-il que tant d’études sur les bienfaits du dépistage à grande échelle du cancer du sein se contredisent ? Comment les unes peuvent-elles conclure à une réduction de 25 % et plus de la mortalité alors que d’autres (moins nombreuses, mais quand même) n’y voient aucun effet ?

C’est un débat qui dure depuis longtemps en science et c’est ce que j’ai essayé de comprendre dans ce dossier paru ce matin dans Le Soleil. Et c’est… comment dire… pas évident.

Dans ce genre de controverses, le choix des indicateurs statistiques est souvent la source des écarts entre les études. Mais ça ne semble pas être le cas ici. Parmi les études qui évaluent les programmes nationaux de dépistage en mesurant la mortalité due au cancer du sein, il y en a qui trouvent un recul des décès et d’autres qui n’en «voient» aucun. D’autres prennent la taille des tumeurs comme indicateurs, mais là aussi les résultats tombent des deux côtés de la clôture.

L’endroit d’où viennent les données ne semblent pas être en cause. Au Danemark, par exemple, où un programme de dépistage systématique n’a été implanté partout en même temps (ce qui fait une sorte d’«expérience naturelle»), deux études ont trouvé une réduction de la mortalité, mais une autre conclut que ce programme n’a rien changé.

Le type d’étude n’est pas non plus garant d’une clarté absolue. Les «expériences naturelles» comme celle du Danemark, qui profitent de différences dans les niveaux de dépistage entre plusieurs régions pour en mesurer l’effet, ont été répétées en plusieurs autres endroits, et plusieurs ont donné des résultats encourageants, mais pas toutes. Une majorité des essais cliniques et des méta-analyses (la «fusion» de plusieurs études afin de grossir l’échantillon), généralement considérés comme les preuves les plus solides en science médicale, concluent à une baisse de la mortalité (voir ici, ici et ici, entre autres), mais il existe aussi des essais cliniques n’ont pas trouvé de bénéfices à la mammographie de masse, de même que certaines méta-analyses.

Bref, une chatte y perdrait son latin, comme disent certains entraîneurs de hockey…

Il semble que les efforts de recherche à ce sujet doivent composer avec de nombreux «facteurs confondants» qui ne sont pas toujours faciles à démêler (mais le sont-ils jamais ?). Par exemple, m’a expliqué le biostatisticien de McGill James Hanley, une tumeur peut prendre de nombreuses années avant de tuer une patiente, si bien qu’il faut être patient avant de voir tous les effets du dépistage s’exprimer. Cela peut expliquer pourquoi certaines des études négatives n’ont rien vu.

Il faut donc faire des suivis sur suffisamment de femmes et à long terme, ce qui n’est pas facile. Mais sur le long terme, justement, le traitement et la gestion des cas de cancer s’améliore. On découvre de nouvelles manières de combattre le cancer, plus efficaces, ce qui peut gonfler artificiellement la réduction de mortalité qui suit l’implantation d’un programme de dépistage. D’où l’intérêt de tirer profit des «expériences naturelles» comme celle du Danemark.

Un autre facteur qui peut masquer les bienfaits du dépistage est le fait que les programmes nationaux ne sont, bien évidemment, pas obligatoires. Ce ne sont donc pas toutes les femmes qui y ont droit qui passe leur mammographie annuelle ou aux deux ans (au Québec). Et de la même manière, il y a toujours une certaine proportion de femmes qui passent une mammographie dans les endroits qui n’ont pas de programme gouvernemental. Au Québec, par exemple, le taux de participation au Programme québécois de détection du cancer du sein est d’environ 65 % ; aux États-Unis, où il n’y a pas de programme universel à proprement parler (il y en a un, mais ciblé pour les femmes défavorisées, et c’est une question d’assurances privées pour les autres), ce taux est de 67 %. Cela indique que les «expériences naturelles» ne sont pas toujours une manière idéale de mesurer l’efficacité du dépistage de masse puisque, dans certains pays, le taux de dépistage des régions couvertes peut ne pas se démarquer suffisamment du reste du pays pour faire une différence (statistiquement significative) dans la mortalité.

En outre, du moins aux yeux de certains détracteurs de ces programmes, le simple fait de dépister systématiquement peut conduire à surestimer la mortalité due au cancer du sein. Un médecin qui ignore que sa patiente décédée avait une tumeur trouvera une autre cause au trépas, mais il pourrait être tenté de l’attribuer au cancer si un programme en a trouvé une.

Enfin, comme on ignore comment une tumeur va évoluer quand on la détecte et qu’il y a des limites éthiques aux études qu’on peut faire, il est très difficile de mesurer le surdiagnostic, ce qui n’aide pas à peser le pour et le contre, disons.

Bref, si dans l’ensemble la littérature scientifique semble pencher assez clairement du côté du dépistage (les lignes directrices de pratiquement tous les pays la recommandent annuellement ou aux deux ans, ce n’est pas sans raison), ce débat-là n’est pas fini…

Lire les commentaires (5)  |  Commenter cet article






Vendredi 24 mars 2017 | Mise en ligne à 15h40 | Commenter Commentaires (4)

Cancer : environnement vs malchance, round 2

(Photo : archives La Tribune)

(Photo : archives La Tribune)

Il y a deux ans, à peu près tous les médias du monde avaient fait leur manchette d’une étude parue dans Science, qui était décrite comme prouvant qu’environ les deux tiers des cancers sont simplement dûs à une certaine malchance. Ce n’était pas tout à fait ce que l’article disait, mais bon, c’est l’image qui s’était imposée. Or les deux auteurs (avec un autre) ont récidivé cette semaine, de nouveau dans Science, à cette différence près que cette fois-ci, c’est bien ce qu’ils disent : 66 % des cancers s’expliqueraient par les mutations qui apparaissent aléatoirement lorsque nos cellules se divisent, 29 % seraient causés par des facteurs environnementaux et 5 % auraient une origine «génétique». Et j’ai un peu de misère à les suivre.

Leur article est en libre accès (yé !), ceux qui veulent le lire au complet peuvent le télécharger ici. Essentiellement, l’exercice est le même qu’en 2015 : l’incidence des cancers selon le site (poumon, foie, cerveau, etc) est mise en parallèle avec le rythme auquel les cellules-souches se divisent dans chacun de ces organes. Les auteurs — Christian Tomasetti, Lu Li et Bert Volgenstein, tous de l’Université John Hopkins — ont élargi leur analyse à 69 pays cette fois-ci alors que leur première étude se limitait aux États-Unis et ils ont aussi ajouté quelques types de cancer qui n’y figuraient pas, mais leur conclusion est la même : les tissus dont les cellules se divisent le plus sont ceux où les «erreurs» de copie dans l’ADN (les mutations) sont les plus fréquentes, ce qui mène à plus de cancers que dans les tissus où les divisions cellulaires sont rares. C’est ce qui explique pourquoi les cancers colorectaux sont plus fréquents que les cancers du cerveau, par exemple.

Tout cela est vrai. Là où je ne suis plus sûr de suivre, c’est que les auteurs se donnent beaucoup de mal pour démontrer que les erreurs de réplication de l’ADN ne sont pas incompatibles avec des causes environnementales, pour ensuite calculer la part de chacun, comme si les deux s’excluaient. Ces erreurs peuvent et sont souvent causées par des facteurs environnementaux, mais la méthode utilisée dans ce papier ne permet pas de séparer la part de l’environnement et la part de la malchance, ont d’ailleurs reproché des critiques de leur premier papier. En outre, parmi les critiques du second, on en trouve de très sérieuses, notamment de n’avoir tenu compte que d’une source de mutation (l’erreur de copie) alors qu’on sait très bien qu’il y en a d’autres (fusion de gènes et mauvais nombre de copies d’un même gène) qui peuvent dégénérer en tumeurs.

Et le travail de Tomasetti et de ses collègues est en bonne partie un modèle mathématique dont les résultats sont en porte-à-faux avec pas mal d’études épidémiologiques, dans lesquelles l’environnement (l’exposition à des polluants, mais cela inclut aussi l’alimentation) joue un rôle majeur. D’après les réactions que j’ai vu ça et là, leur dernier papier n’a pas l’air d’avoir convaincu grand-monde.

Alors quel pourcentage des cancers, au juste, viendrait de l’environnement — et serait donc «évitable» — si ce n’est pas le 29 % dont parle l’article de Science ? J’ai vu des estimés à 70 %, d’autres à 95 %, mais ce qui est certain, c’est que cela varie beaucoup d’un cancer à l’autre. Il semble par exemple que le cancer du poumon est presque entièrement «environnemental», alors que le cancer du cerveau serait surtout une question de malchance. Mais on touche ici, je pense, au grand mérite de Tomasetti et al.: avoir lancé le débat et stimulé la recherche autour de cette question, parce que la part de l’environnement, des gènes et du hasard pur (parce que oui, ça joue un rôle) n’a pas encore été complètement élucidé.

L’ennui, c’est qu’on n’aura accordé d’attention à peu près qu’au point de départ de cette converstion, sans grand égard pour ce qui a suivi ni pour les conclusions, qui s’enlignent pour être pas mal plus nuancées. Dommage. Mais cette partie-là n’est pas la faute de M. Tomasetti…

Lire les commentaires (4)  |  Commenter cet article






Mercredi 15 février 2017 | Mise en ligne à 10h53 | Commenter Commentaires (6)

CRISPR : la patience est de mise

(Image : gracieuseté, UPenn)

(Image : gracieuseté, UPenn)

L’acronyme CRISPR est un buzz word très à la mode depuis sa découverte, en 2012. Et pour cause, puisque comme technique de modification des gènes, c’est un bond en avant inouï. Presque littéralement, c’est l’équivalent de cesser de compter avec un boulier pour commencer à écrire des nombres : alors que les techniques précédentes consistaient (grosso modo) à ajouter un ou des gènes dans le noyau cellulaire, CRISPR permet carrément d’enlever et de remplacer des parties très précises du génome.

L’ennui, c’est que si c’est (relativement) facile à faire sur une cellule unique ou un embryon dans ses premiers stades de développement, cela devient beaucoup plus compliqué à faire sur une organisme pleinement développé. In vivo, m’expliquait récemment un chercheur de Québec, Jacques P. Tremblay, la correction ne se fait pour l’instant que dans environ 1 % des cellules. Ce qui signifie que si l’on peut d’ores et déjà modifier des génomes en s’y prenant très tôt dans le développement, par exemple pour rendre des bovins résistants à des maladies, on n’est pas encore rendu à s’en servir comme un outil de thérapie génique pour guérir des patients, malheureusement.

Il y a quelques jours, j’ai eu l’occasion de m’entretenir avec un des leaders mondiaux de la thérapie génique, Dr James Wilson, qui est de passage au Québec présentement. Mon entrevue avec lui est ici. Elle a porté surtout sur le fait que la thérapie génique, après des décennies à faire miroiter de belles promesses sans jamais (ou presque) les livrer, semble finalement sur le point d’aboutir, de déboucher sur des traitements assez nombreux. Mais comme on ne peut plus, depuis une couple d’années, parler de modifier les gènes sans jaser de CRISPR, j’ai abordé le sujet avec lui. J’ai manqué d’espace dans la version papier de mon texte, alors voici ce que Dr Wilson a répondu quand je lui ai lancé qu’il n’y a rien de parfait en ce bas monde et que CRISPR doit sûrement avoir des mauvais côtés, lui aussi :

«Le grand défi de la thérapie génique a toujours été d’amener efficacement et sécuritairement les gènes jusqu’aux cellules. Ça nous a pris des décennies avant d’y parvenir. Notre expérience en livraison (ndlr : on doit au labo du Dr Wilson plusieurs des principaux «véhicules» viraux les plus prometteurs pour «livrer» les gènes) peut servir à faire progresser l’édition génomique, mais a a toujours été et ce sera toujours compliqué parce que ça implique de donner un virus au patient.

«Dans le cas de CRISPR, c’est encore plus compliqué parce qu’il faut non seulement s’arranger pour amener le «paquet» dans le noyau cellulaire, mais la livraison doit ensuite pouvoir traverser une séquences d’événements moléculaires. Il faut que ce qu’on livre soit capable de couper le génome (ndlr : essentiellement, CRISPR sert de «guide» pour une enzyme coupeuse d’ADN nommée Cas-9, afin de reconnaître le bout d’ADN qui doit être sectionné) et ensuite d’insérer un brin d’ADN à un endroit précis. Et il faut que ce soit très spécifique parce qu’il ne faut pas endommager le reste de l’ADN (ndlr : ce que Cas-9 fait si elle n’est pas bien guidée).

«Alors la réponse courte, c’est qu’on doit surmonter les mêmes défis pour CRISPR que pour la thérapie génique «classique», mais qu’en plus de ça, la nature plus complexe de l’édition génétique engendre des inefficacités et possiblement des questions sur l’innocuité. Parce que si ce qu’on introduit n’est pas assez précis, pas assez spécifique, alors on va créer des mutations ailleurs dans le génome qui peuvent avoir des effets délétères.»

Lire les commentaires (6)  |  Commenter cet article






publicité

  • Catégories



  • publicité





  • Calendrier

    avril 2017
    D L Ma Me J V S
    « mar    
     1
    2345678
    9101112131415
    16171819202122
    23242526272829
    30  
  • Archives