Sciences dessus dessous

Archive de la catégorie ‘Innovation et technologies’

Jeudi 18 juin 2015 | Mise en ligne à 10h37 | Commenter Commentaires (24)

Le graphène : un miracle qui attend son problème ?

Le graphène est un cristal de carbone en 2 dimensions, c'est-à-dire qu'il ne fait qu'un seul atome d'épaisseur. (Photo : archives Le Soleil)

Le graphène est un cristal de carbone en 2 dimensions, c'est-à-dire qu'il ne fait qu'un seul atome d'épaisseur. (Photo : archives Le Soleil)

De tous les nouveaux matériaux qui ont été mis au point ces 20 dernières années, aucune n’a été autant porté aux nues que le graphène — qui est essentiellement une feuille de cristaux de carbone si mince qu’elle ne fait qu’un seul atome d’épaisseur. Fabriqué pour la première fois en 2003 et qualifié par plusieurs de nouvel or noir, le graphène a valu le prix Nobel de physique à ses découvreurs dès en 2010, un délai extraordinairement court justifié par ses propriétés extraordinaires, qui laissent entrevoir une révolution technologique comparable celle que le laser a mis en branle : 200 fois plus fort que l’acier, léger, meilleur conducteur électrique et thermique que le cuivre, etc.

Mais voilà, lit-on dans ce papier paru sur le site de Nature, en 2013 les ventes de ce matériau-miracle se sont élevés à… 12 millions $. Pas milliards, millions. En en 2025, on projette que le marché mondial sera d’à peine 350 millions $.

Ce ne sont pourtant pas les applications envisagées qui manquent, lit-on dans l’article. Le graphène, par exemple, a la faculté de transformer presque tous les photons qui le frappent en courant électrique, ce qui pourrait en principe en faire le Saint-Graal des panneaux solaires, sans compter un potentiel énorme pour emmagasiner l’énergie. Mais pour l’heure, il n’a trouvé que bien peu d’applications, notamment dans des alliages pour renforcer des matériaux.

Son amalgame de solidité, de souplesse et de conductibilité en ferait un candidat absolument rêvé pour les écrans tactiles, mais il n’a jusqu’à maintenant été utilisé que dans une infime poignée («pincée» serait même plus approprié) de modèles, parce qu’il reste deux fois plus cher que les matériaux actuels. Et peut-être aussi parce que ces derniers font très bien l’affaire…

Bref, l’article de Nature décrit (implicitement) le graphène comme une solution qui se cherche un problème, et trace (explicitement) un parallèle avec les nanotubes de carbone — un autre matériau remplis de belles promesses, mais qui ne «lève» pas. Le texte est fort intéressant et rudement bien documenté, je vous en recommande sincèrement la lecture. Mais je trouve aussi qu’il est un-peu-pas-mal tôt pour déplorer que le graphène n’a toujours pas trouvé de «killer application» qui fait vraiment décoller la production. Seulement 12 ans ont passé depuis la première fabrication du graphène ; à vue de nez, cela peut sans doute paraître bien long avant de trouver quelque chose à faire avec une découverte, mais quiconque connaît un peu son histoire des sciences sait que c’est, au contraire, très court.

Reprenons l’exemple du laser, sans doute la révolution technologique la plus importantes des 50 dernières années — avec l’informatique. Il a été mis au point pour la première fois en 1960 dans les célèbres laboratoires Bell, aux États-Unis. Ses pionniers n’entrevoyaient pas, au début, à quel point leur trouvaille allait chambouler la «planète techno», mais il ne lui a fallu que quelques années pour commencer à faire boule de neige.

Les premières applications du laser furent faites en science, car il était évident dès le départ qu’une nouvelle forme de lumière allait permettre de sonder la matière de façon inédite. Des applications de mesure de distance apparurent relativement rapidement aussi, mais je ne crois pas me tromper ou déformer beaucoup la réalité en disant que le laser a connu une première décennie à peu près aussi «humble» que le graphène.

Et il faut aussi garder un autre point important à l’esprit : non seulement est-il normal qu’il se passe facilement 10 ans avant que l’on mette au point les premières applications d’une découverte, mais on doit aussi s’attendre à ce que l’application, si révolutionnaire et utile soit-elle, prenne une autre bonne décennie avant de se diffuser pour la peine. Toujours dans le cas du laser, mentionnons que les lecteurs de code-barre sont apparus en 1974, mais que leur usage ne s’est vraiment généralisé que 10 à 15 ans plus tard. De même, la première imprimante laser a été fabriquée en 1971 (!), mais elle n’a pris le pas sur les autres technologies d’impression que dans les années 90 — encore que cela a pu varier selon les domaines, bien entendu.

Bref, et vous me direz ce que vous en pensez, je ne doute absolument pas que le graphène trouvera une multitude d’applications, dont certaines pourraient bien changer nos vies. Mais il faut simplement réaliser que cela prend du temps. C’est une chose que de faire une découverte dans un labo. C’en est une tout autre (et une très complexe) pour une société que d’apprendre à s’en servir.

Lire les commentaires (24)  |  Commenter cet article






Graphique : Quoctrung Bui/NPR

Graphique : Quoctrung Bui/NPR

Parlez-moi d’une belle énigme… Comme les femmes étaient très peu présentes dans les universités il y a 50 ou 60 ans, on se dit qu’elles n’ont, forcément, jamais été plus présentes dans les programmes d’informatique qu’elles le sont maintenant — même si ça reste évidemment très bas, sous les 10 %. Et pourtant, un fascinant graphique publié par la radio publique américaine montre que c’est faux : jusqu’en 1984 environ, la proportion de femmes en informatique augmentait petit à petit, au même rythme que la présence des femmes dans d’autres domaines universitaires comme la médecine, dépassant même les 35 %. Ce n’est que par la suite qu’elles se sont détournées des ordinateurs. Et allez savoir ce qui a bien pu se passer en 1984…

A priori, lorsque l’on observe ce genre de tendance aux États-Unis, on les voit également au nord de la frontière. Et les quelques données que j’ai pu glaner ici et là suggèrent que c’est bel et bien le cas. En 1971, la première cohorte de diplômés en informatique de l’UdeM comptait 10 finissantes sur un total de 45 ; cette proportion de 22 % est plus du double des quelque 9 % de femmes qui étudient de nos jours en informatique à la Poly et à l’UQAM. Et selon Statistique Canada, le domaine «mathématiques, informatique et sciences de l’information» (qui déborde pas mal des ordis, remarquez) s’est masculinisé entre 1992 et 2007, la proportion de femmes y baissant de 35 à 30 %.

Alors qu’est-il donc arrivé en cette année fatidique de 1984 ? Un changement dans les méthodes de traitement des eaux ? Astres en conjonction ? Autre chose ?

Un bref coup d’œil aux archives du Billboard montre que l’auditoire des radios commerciales a vécu de sales moments, cette année-là, et que les dépressions devaient être fréquentes chez les mélomanes (encore qu’en cherchant un peu, les pauvres pouvaient aussi trouver bien du réconfort)…

Non, plus sérieusement, l’hypothèse avancée par NPR est que c’est à peu près à cette époque que les ordinateurs personnels se sont démocratisés, qu’ils ont commencé leur entrée à grande échelle chez Monsieur et Madame Tout-le-Monde. C’est l’année où furent lancés le populaire Tandy-1000, le non moins vendeur MacIntosh et (oh ! souvenir…) la disquette 3,5 pouces. Or chez ces mêmes Monsieur et Madame Tout-le-Monde, l’ordinateur était vu comme une affaire d’homme ou comme un jouet pour garçon, puisque les jeux électroniques se sont répandus en même temps — et Dieu sait que le gaming est encore un univers masculin.

Les filles ayant eu moins d’occasions et de temps qu’eux pour se familiariser avec l’ordinateur, elles n’auraient pas pu développer le même intérêt pour l’informatique et/ou se seraient trouvées désavantagées à leur arrivée à l’université.

Lire les commentaires (73)  |  Commenter cet article






On est encore très loin du célèbre Al, l'ordinateur de bord dans «2001, odyssée de l'espace».

On est encore très loin du célèbre HAL, l'ordinateur de bord dans «2001, odyssée de l'espace».

Un duo d’informaticiens d’Europe de l’Est a mis le petit monde de l’intelligence artificielle en émoi, ce week-end, quand il a été annoncé (par l’Université de Reading, au Royaume Uni) qu’ils avaient mis au point un programme capable de passer le «test de Turing», une sorte d’épreuve quasi mythique qui consiste à rendre un ordinateur suffisamment apte à la conversation pour que des humains croient qu’ils ont affaire à une personne en chair et en os.

Le communiqué de presse parle de «jalon dans l’histoire de l’informatique» et de «signal d’alarme pour la cybercriminalité». Mais pas mal de gens se montrent sceptiques…

Imaginé dans les années 50 par le célèbre mathématicien anglais Alan Turing (souvent décrit comme le «père de l’informatique»), le test de Turing consiste à faire «discuter» des humains avec un ordinateur pendant 5 minutes par écrit et à berner au moins 30 % d’entre eux. Dans ce cas-ci, les programmeurs Vladimir Veselov et Eugene Demchenko ont créé un personnage virtuel nommé Eugène, un faux garçon de 13 ans vivant en Ukraine. Samedi, la Société royale a fait clavarder 30 juges avec cet Eugène fictif et avec un humain véritable pendant 5 minutes. Le test a été répété cinq fois par juge, et à chaque fois le juge devait dire lequel de ses deux interlocuteurs était un Homo sapiens.

Eugène ayant trompé les juges 33 % du temps, les arbitres indépendants (puisqu’il y en avait) ont conclu que le test de Turing avait été passé avec succès pour la première fois de l’histoire.

D’aucuns, depuis, font valoir que le fameux test aurait déjà été réussi en 1991 et en 2011. Le communiqué de Reading reconnaît que d’autres essais ont été tenté et auraient surpassé la barre des 30 %, mais on comprend du texte que les «conversations» virtuelles d’alors étaient beaucoup plus encadrées, moins libres que celles qu’Eugène a eues samedi dernier. J’ignore si c’est le cas, mais cela pourrait effectivement être un point très pertinent — si la conversation implique des choix de réponses, par exemple, il devient beaucoup plus facile d’imiter un humain.

Mais quoi qu’il en soit, il me semble qu’il y a quelques détails dans cette histoire qui amoindrissent pas mal la portée de cet accomplissement (qui demeure grand, on s’entend) :

– Il y a deux ans, ce même Eugène avait passé exactement le même test, mais avait alors échoué. Oh, de très peu, il faut le dire, à 29 %. Mais il me semble que si l’on peut tenter, retenter et re-retenter sa chance, alors le fait de réussir grâce à ce qui est manifestement une fluctuation aléatoire d’un test à l’autre n’est pas particulièrement glorieux.

– Plus fondamentalement, renotent le mathématicien français Jean-Paul Delahaye et le New Scientist, l’invention d’un personnage ukrainien de 13 ans qui doit s’exprimer dans une langue qui n’est pas la sienne, l’anglais, tient de l’entourloupe. Les juges, sachant qu’ils ont affaire à un tel «interlocuteur», peuvent en effet avoir été moins alertes à des fautes de langage ou des répliques un peu bizarres qui leur auraient autrement mis la puce (pardon pour le jeu de mot) à l’oreille.

– Les deux mêmes sources soulignent qu’il ne s’agit pas d’un test d’intelligence, contrairement à ce que l’on entend parfois. À l’origine, Turing voulait répondre à la question de savoir si un ordinateur peut «penser» (d’où, peut-être, le statut prestigieux du test) ; mais comme la notion de pensée est difficile à définir, il a opté pour un test de conversation. Il s’agit donc plus d’une épreuve d’imitation que d’intelligence.

– On me corrigera si je me trompe, mais il m’apparaît par ailleurs que ces critiques, si doctes et fondées soient-elles, manquent un autre aspect un peu «mou» du test de Turing : les changements culturels. Est-ce que les juges de 1991 avaient les mêmes critères que ceux d’aujourd’hui ? Je ne dis pas qu’ils étaient meilleurs ou pires pour «flairer» le virtuel, mais quand on voit l’omniprésence de l’informatique dans nos vies aujourd’hui, présence qui n’a absolument rien à voir avec la situation qui prévalait il y a 20 ans, la question se pose. Quand on constate les progrès énormes qu’a fait l’intelligence artificielle dans les jeux vidéos ces dernières années, la question se pose encore plus, il me semble. Qu’en dites-vous ?

AJOUT (11h45) : Voir aussi ce billet sur le blogue de M. Delahaye. Il y explique notamment l’origine purement anecdotique du cap des 30 % — et pourquoi le seuil fixé par Alan Turing était plutôt de 50 %.

Lire les commentaires (41)  |  Commenter cet article






publicité

  • Catégories

  • Blogues sur lapresse



    publicité





  • Calendrier

    septembre 2012
    D L Ma Me J V S
    « août   nov »
     1
    2345678
    9101112131415
    16171819202122
    23242526272829
    30  
  • Archives

  • publicité