Sciences dessus dessous

Archive de la catégorie ‘Mathématiques’

Lundi 5 janvier 2015 | Mise en ligne à 11h45 | Commenter Commentaires (27)

La chance, la poisse et le cancer

La «nouvelle», si le terme convient vraiment, a fait beaucoup de bruit ces derniers jours : selon une étude publiée dans la prestigieuse revue Science, ou du moins selon les articles de presse à son sujet, les deux tiers des cas de cancer s’expliqueraient simplement par de la «malchance», et non par la génétique, l’environnement et/ou de mauvaises habitudes de vie. Pratiquement tous les médias du Québec l’ont reprise et, à un moment de l’année où l’abus des bonnes choses est une routine, une manchette aussi déculpabilisante que celle-là a eu un retentissement bien prévisible sur les réseaux sociaux, où l’on ne compte plus les «je le savais, c’est juste de la chance». Mais… Mais…

Mais il y a un petit problème, ici. Un menu détail. Un léger quiproquo : l’étude en question ne démontre pas que les deux tiers des cas de cancer sont dû au hasard. Mais alors là, pas du tout. Le travail, réalisé par le généticien Bert Vogelstein et le mathématicien Cristian Tomasetti, de l’Université Hopkins, est extrêmement intéressant, mais il y a malheureusement des subtilités du jargon statistique qui semblent avoir échappé à la machine médiatique.

Le duo d’auteurs part d’un principe bien connu. Le cancer est causé par des mutations dans l’ADN de nos cellules. Or lorsque nos cellules se divisent, il arrive (rarement, mais quand même) que des erreurs soient commises dans la retranscription dudit ADN, ce qui provoque des mutations. Cela donne donc des tumeurs qui ne sont dues ni à la génétique, ni à des facteurs environnementaux comme la pollution ou la cigarette, mais simplement à une forme de malchance, une sorte de risque de cancer «de base» qui serait inhérent à tous les animaux dont les cellules se multiplient.

Pour étudier le phénomène, MM. Vogelstein et Tomasetti ont donc épluché la littérature scientifique afin de calculer des risques de cancer pour 31 organes différents — l’idée étant ici que nos cellules ne se divisent pas au même rythme dans tous les organes. Et ils ont trouvé, comme ils s’y attendaient, que les organes dont les cellules se divisent rapidement sont plus souvent le siège de tumeurs que les autres. La corrélation est même très, très forte, avec un coefficient de 0,81 — une valeur de 0 indique une absence de corrélation, alors qu’une valeur de 1 (ou de –1, je vous épargne les détails) montre que deux variables «bougent» ensemble de manière systématique. Et en faisant le carré de ce coefficient, l’on obtient un autre coefficient, «de détermination» celui-là, qui indique la part de la variation qui peut s’expliquer par une variable. Dans le cas qui nous intéresse, on a 0,812 = 0,66. C’est de là que vient le ratio des «deux tiers» dont on parle ici.

Mais ce qu’il importe de noter, en tout ceci, c’est que la «part de la variation» ne doit pas être confondue avec la part du risque total. Comme l’explique ici le biostatisticien anglais Ben O’Hara, une variable peut expliquer une grande partie de la variation sans dire grand-chose sur le risque absolu. Par exemple, si le risque de tumeur varie d’un organe à l’autre entre, disons 0,01 et 1 %, alors la «part de la variation» peut, certes, être une donnée absolument fondamentale. Mais si le risque fluctue entre 80 et 81 %, alors franchement, on s’en fout pas mal : une variable peut bien expliquer les deux tiers de la différence entre un risque de 80 % et un risque de 81 %, c’est vraiment ce qui se passe de 0 à 79,9 % qui nous intéresse.

Les chiffres que je donne ici sont fictifs et caricaturaux, mais ils font ressortir ce que MM. Vogelstein et Tomasetti ont vraiment étudié : la variation, pas le risque absolu. En outre, il faut aussi vraiment souligner à grands traits que ce sont des organes que l’on compare ici, et non les situations (génétique défavorable, pollution, tabagisme, alcool, etc) dans lesquelles se trouvent ou non les organes.

Alors ce qu’ont trouvé les chercheurs de Hopkins demeure bien intéressant pour documenter le risque de base que nous avons de développer un cancer par le seul fait que nos cellules se divisent, mais cela n’enlève rien au fait que la cigarette multiplie par 15 à 30 le risque absolu de cancer du poumon, que l’abus d’alcool accroît le risque absolu de développer plusieurs types de cancer, que 70 % des cancers cervicaux sont causés par le virus du papillome humain, et ainsi de suite.

Désolé…

Lire les commentaires (27)  |  Commenter cet article






Mardi 12 août 2014 | Mise en ligne à 16h20 | Commenter Commentaires (21)

Une première femme remporte le «Nobel des maths»

Ça fait un peu drôle de dire ça en 2014, mais mieux vaut tard que jamais : une mathématicienne d’origine iranienne de l’Université Stanford, Maryam Mirzakhani, est devenue aujourd’hui la première femme à remporter la plus prestigieuse distinction en mathématiques, la médaille Fields. L’Union mathématique internationale vient d’en faire l’annonce lors d’un congrès en Corée du Sud.

Souvent présentées comme les «Nobel des maths», les médailles Fields sont décernées à tous les 4 ans à un maximum de 4 mathématiciens à la fois (qui doivent avoir moins de 40 ans à ce moment). Il y a eu 52 (et maintenant 56) médaillés Fields depuis les débuts de ce prix, en 1936.

Mme Marzakhani s’est mérité la médaille grâce à ses travaux en géométrie, notamment sur les «espaces modulaires» — soit des sortes d’«univers multiples» où «chaque point d’un univers est un univers en soi», explique ici le New Scientist. Bien franchement, et c’est un brin frustrant, je n’ai trouvé aucun texte qui explique les avancées de Mme Marzakhani de façon claire pour des non-mathématiciens. Les explications du site de l’Union mathématique internationale sont, mettons, un peu corsée, et celles de Nature restent trop superficielles pour faire comprendre grand-chose à M. et Mme Tout-le-Monde.

Enfin, ce n’est pas un sujet facile à vulgariser…

Il semble toutefois clair qu’à partir de ses travaux en géométrie, la mathématicienne de Stanford est parvenue à faire des liens insoupçonnés avec plusieurs autres branches des mathématiques, et qu’il lui a fallu pour cela démontrer une compréhension poussée de ces branches — une rareté dans un monde où la tendance est nettement à l’hyperspécialisation.

Les autres récipiendaires de la médaille Fields 2014 sont : Arthur Avila, de l’Institut mathématique de Jussieu, à Paris (travaille sur les systèmes dynamiques) ; Manjul Bhargava, de l’Université Princeton («géométrie des nombres») ; et Martin Hairer, de l’Université de Warwick (qui travaille, si j’ai bien compris, sur un mélange entre le calcul différentiel et les probabilités).

Lire les commentaires (21)  |  Commenter cet article






On est encore très loin du célèbre Al, l'ordinateur de bord dans «2001, odyssée de l'espace».

On est encore très loin du célèbre HAL, l'ordinateur de bord dans «2001, odyssée de l'espace».

Un duo d’informaticiens d’Europe de l’Est a mis le petit monde de l’intelligence artificielle en émoi, ce week-end, quand il a été annoncé (par l’Université de Reading, au Royaume Uni) qu’ils avaient mis au point un programme capable de passer le «test de Turing», une sorte d’épreuve quasi mythique qui consiste à rendre un ordinateur suffisamment apte à la conversation pour que des humains croient qu’ils ont affaire à une personne en chair et en os.

Le communiqué de presse parle de «jalon dans l’histoire de l’informatique» et de «signal d’alarme pour la cybercriminalité». Mais pas mal de gens se montrent sceptiques…

Imaginé dans les années 50 par le célèbre mathématicien anglais Alan Turing (souvent décrit comme le «père de l’informatique»), le test de Turing consiste à faire «discuter» des humains avec un ordinateur pendant 5 minutes par écrit et à berner au moins 30 % d’entre eux. Dans ce cas-ci, les programmeurs Vladimir Veselov et Eugene Demchenko ont créé un personnage virtuel nommé Eugène, un faux garçon de 13 ans vivant en Ukraine. Samedi, la Société royale a fait clavarder 30 juges avec cet Eugène fictif et avec un humain véritable pendant 5 minutes. Le test a été répété cinq fois par juge, et à chaque fois le juge devait dire lequel de ses deux interlocuteurs était un Homo sapiens.

Eugène ayant trompé les juges 33 % du temps, les arbitres indépendants (puisqu’il y en avait) ont conclu que le test de Turing avait été passé avec succès pour la première fois de l’histoire.

D’aucuns, depuis, font valoir que le fameux test aurait déjà été réussi en 1991 et en 2011. Le communiqué de Reading reconnaît que d’autres essais ont été tenté et auraient surpassé la barre des 30 %, mais on comprend du texte que les «conversations» virtuelles d’alors étaient beaucoup plus encadrées, moins libres que celles qu’Eugène a eues samedi dernier. J’ignore si c’est le cas, mais cela pourrait effectivement être un point très pertinent — si la conversation implique des choix de réponses, par exemple, il devient beaucoup plus facile d’imiter un humain.

Mais quoi qu’il en soit, il me semble qu’il y a quelques détails dans cette histoire qui amoindrissent pas mal la portée de cet accomplissement (qui demeure grand, on s’entend) :

– Il y a deux ans, ce même Eugène avait passé exactement le même test, mais avait alors échoué. Oh, de très peu, il faut le dire, à 29 %. Mais il me semble que si l’on peut tenter, retenter et re-retenter sa chance, alors le fait de réussir grâce à ce qui est manifestement une fluctuation aléatoire d’un test à l’autre n’est pas particulièrement glorieux.

– Plus fondamentalement, renotent le mathématicien français Jean-Paul Delahaye et le New Scientist, l’invention d’un personnage ukrainien de 13 ans qui doit s’exprimer dans une langue qui n’est pas la sienne, l’anglais, tient de l’entourloupe. Les juges, sachant qu’ils ont affaire à un tel «interlocuteur», peuvent en effet avoir été moins alertes à des fautes de langage ou des répliques un peu bizarres qui leur auraient autrement mis la puce (pardon pour le jeu de mot) à l’oreille.

– Les deux mêmes sources soulignent qu’il ne s’agit pas d’un test d’intelligence, contrairement à ce que l’on entend parfois. À l’origine, Turing voulait répondre à la question de savoir si un ordinateur peut «penser» (d’où, peut-être, le statut prestigieux du test) ; mais comme la notion de pensée est difficile à définir, il a opté pour un test de conversation. Il s’agit donc plus d’une épreuve d’imitation que d’intelligence.

– On me corrigera si je me trompe, mais il m’apparaît par ailleurs que ces critiques, si doctes et fondées soient-elles, manquent un autre aspect un peu «mou» du test de Turing : les changements culturels. Est-ce que les juges de 1991 avaient les mêmes critères que ceux d’aujourd’hui ? Je ne dis pas qu’ils étaient meilleurs ou pires pour «flairer» le virtuel, mais quand on voit l’omniprésence de l’informatique dans nos vies aujourd’hui, présence qui n’a absolument rien à voir avec la situation qui prévalait il y a 20 ans, la question se pose. Quand on constate les progrès énormes qu’a fait l’intelligence artificielle dans les jeux vidéos ces dernières années, la question se pose encore plus, il me semble. Qu’en dites-vous ?

AJOUT (11h45) : Voir aussi ce billet sur le blogue de M. Delahaye. Il y explique notamment l’origine purement anecdotique du cap des 30 % — et pourquoi le seuil fixé par Alan Turing était plutôt de 50 %.

Lire les commentaires (41)  |  Commenter cet article






publicité

  • Catégories



  • publicité





  • Calendrier

    septembre 2010
    D L Ma Me J V S
    « août   oct »
     1234
    567891011
    12131415161718
    19202122232425
    2627282930  
  • Archives

  • publicité