Sciences dessus dessous

Archive de la catégorie ‘Innovation et technologies’

Mardi 16 février 2016 | Mise en ligne à 12h16 | Commenter Commentaires (78)

Serez-vous remplacé bientôt par un robot ?

Le futur tombeur des traducteurs ? (Photo : starwars.com)

Le futur tombeur des traducteurs ? (Photo : starwars.com)

Un prof de génie mécanique me faisait récemment cette observation : quand on essaie de projeter l’industrie du transport individuel dans l’avenir, la bataille que se livrent les chauffeurs de taxis et les chauffeurs d’Uber devient soudain un bien drôle de spectacle. Ou une triste vision, selon le point de vue. Car tout indique que les véhicules pilotés par ordinateur sont à nos portes — et il y a fort à parier qu’une fois sur le marché, ils prendront éventuellement la place d’une grande partie, sinon de la plupart des chauffeurs actuels, qu’ils soient au volant de taxis, de navettes ou de camions.

Google se targue d’avoir des voitures automatiques qui ont autour de 1,6 million de kilomètres au compteur sans être impliqué dans un nombre anormal d’accidents — et encore, habituellement dûs aux humains autour. Plusieurs autres grandes compagnies travaillent sur des projets semblables. Pour tout dire, l’Ontario a même lancé un appel d’offres en début d’année pour que des voitures sans conducteur soient testées sur ses routes.

Et un panel d’experts s’est réuni le week-end dernier, au congrès annuel de l’Association américain pour l’avancement des sciences (AAAS, qui publie la prestigieuse revue savante Science), pour tenter d’entrevoir quels corps de métiers risquent d’être remplacés par des robots. Tous ceux qui se trouvent derrière un volant risquent d’y passer. Mais plus largement, prévoient-ils, les automates vont sans doute surtout prendre la place de gens dans la classe moyenne. Les travailleurs très qualifiés (médecins, psychologues, ingénieurs, avocats, etc) dont les tâches demandent des qualités que les ordinateurs n’auront sans doute jamais, comme la créativité, la contextualisation et le contact humain, n’ont évidemment pas à s’en faire : on aura toujours besoin d’eux. À l’autre bout de l’échelle sociale, les gagne-petit dont le salaire est trop faible pour qu’il vaille la peine de les remplacer peuvent eux aussi dormir sur leurs deux oreilles.

Pour l’instant, du moins. Car la concurrence pour leurs postes pourraient s’intensifier à mesure que d’autres, dans la strate du milieu, seront remplacés par des machines. Le processus est commencé depuis longtemps dans le secteur manufacturier, jadis fief de «l’aristocratie des cols bleus». Maintenant, toute la question est de savoir si les emplois perdus ici seront récupérés (et même plus) là-bas, sous une forme ou sous une autre. Certains des présentateurs de l’AAAS, comme le chercheur de l’Université Rice en intelligence artificielle Moshe Vardi, sont clairement dans le camp des pessimistes, il faut le noter.

La théorie économique classique dit essentiellement de ne pas s’en faire : tout gain de productivité est une bonne chose parce que cela dégage de meilleurs profits qui sont ensuite réinvestis ailleurs, ce qui «crée des jobs», en bout de ligne. De ce point de vue, la productivité et l’emploi marchent littéralement main dans la main, et l’automatisation ne détruit pas les emplois, elle transforme le marché du travail — le secteur des services a littéralement explosé en même temps que l’emploi manufacturier battait de l’aile.

Mais voilà, tous les économistes ne sont pas de cet avis. Depuis quelques années, les économistes du Michigan Technology Institute Erik Brynjolfsson et Andrew McAfee font valoir que la théorie classique était historiquement vraie, mais qu’on assiste à un découplage de l’emploi et de la productivité, comme si les gain de productivité réalisés grâce aux machine ne faisaient que remplacer des travailleurs sans créer de nouveaux postes ailleurs. Quelque part autour de l’an 2000, disent en s’appuyant sur ce graphique ci-dessous, un découplage de l’emploi et de la productivité est survenu : la productivité a continué d’augmenter pendant que l’emploi stagnait.

(Source : http://goo.gl/aZoj1M)

(Source : http://goo.gl/aZoj1M)

Une partie de ce découplage s’explique par un déplacement (d’emplois relativement peu productifs) vers l’Asie, mais les deux économistes craignent qu’il n’y ait quelque chose de plus fondamental, une sorte de point de bascule au-delà duquel les humains perdent purement et simplement leur place au profit des machines.

La thèse de Brynjolfsson et McAfee, il faut le souligner, ne rallie pas beaucoup de leurs collègues. Un bon exemple de contre-pied est ce texte du chercheur en politiques des sciences et de la technologie de l’Université du Colorado Roger Pielke Jr. Celui-ci argue en substance que la productivité est un indicateur trop brut pour mesurer l’impact de la technologie sur l’emploi — la «productivité globale des facteurs» (PGF) est l’indicateur qu’il provilégie. La PGF est toute la croissance qui ne provient pas du capital et du travail ; par exemple, en agriculture, l’ensoleillement peut accroître la production sans que les autres facteurs ne bougent. Et la principale composante de la PGF est l’innovation technologique.

En prenant cela comme indicateur, M. Pielke constate que l’emploi privé s’est découplé de la PGF non pas vers l’an 2000, mais plutôt au tournant des années 80. Ce qui coïncide avec le sommet de l’emploi manufacturier aux États-Unis. Or l’emploi (privé, toujours) a continué de progresser pendant 20 ans après ce découplage, ce qui fait dire à M. Pielke que ce n’est pas la technologie qui est derrière la stagnation de l’emploi chez l’Oncle Sam depuis 15 ans.

Bref, comme dans bien des débats d’économistes, il est un peu difficile d’y voir clair. Mais si (et j’ai bien dit «si») Brynjolfsson et McAfee ont raison, le sociologue du dimanche en moi entrevoit un avenir rempli d’explosions sociales. Car s’il (encore une fois, «si») faut 115 de QI pour bien s’en tirer dans le futur, qu’est-ce qu’on dira aux quelque 60 % qui n’ont pas le cerveau qu’il faut ? Die, fuckers ?

Lire les commentaires (78)  |  Commenter cet article






Mardi 22 septembre 2015 | Mise en ligne à 14h52 | Commenter Commentaires (50)

«Volkswagate», «Fauxwagen» : quelques points de repère…

(Photo : archives La Presse)

(Photo : archives La Presse)

Ainsi donc, le constructeur automobile allemand Volkswagen a tripatouillé avec les tests de pollution que le ministère américain de l’environnement (EPA) impose aux voitures vendues aux États-Unis. Les excuses du grand patron ont déjà fait le tour du monde quelques fois, contrition dont on ne doute pas de la sincérité quand on songe à l’amende de 18 milliards $ qui lui pend au bout du nez aux États-Unis seulement et à la varlope de 25 milliards $ que l’entreprise a subie en Bourse. Oh, et il y aura des coûts de rappel à prévoir…

Mais en tout ceci, les articles qui permettent de comprendre le fond technique et chimique de l’affaire sont malheureusement assez rares. C’était à prévoir, remarquez, puisque les agences de presse (et beaucoup de médias généralistes) évitent systématiquement ce genre d’explication, de peur de perdre des lecteurs, mais cela reste dommage — et j’ai bien de la difficulté à comprendre comment on peut écrire autant d’articles sur une supercherie sans jamais expliquer en quoi l’arnaque consistait, au juste, mais bon, c’est peut-être juste moi…

Alors voici ce que j’ai pu glaner à ce sujet. Si vous avez d’autres liens instructifs, proposez-les dans les commentaires, je les reproduirai à la fin du billet…

Le scandale ne touche, comme on le sait, que les moteurs diesels dans les voitures VW. Ces moteurs fonctionnent (grosso modo) en brûlant un mélange de carburant un peu différent de l’essence ordinaire et, contrairement aux moteurs ordinaires qui allument l’essence à l’aide d’une étincelle, s’en remettent à la compression de l’air chaud pour faire provoquer l’explosion dans les pistons. En bout de ligne, ces différences rendent les moteurs diesel plus économe, surtout sur la grand-route, mais ils émettent en revanche une panoplie de polluants en plus grande quantité que les moteurs «classiques» — principalement des oxydes d’azote, du carburant non brûlé et de la suie.

Les oxydes d’azote sont particulièrement problématiques, lit-on dans cet excellent papier de Wired, parce que sous la lumière du Soleil, ils se défont et réagissent pour former de l’ozone — une des composantes du smog, connu pour provoquer et/ou empirer toutes sortes de problèmes respiratoires et cardiaques. Afin de réduire ces émissions, un système a fini par être mis au point — d’abord pour les camions, mais il fut appliqué aux voitures par la suite — qui injecte un mélange d’eau et d’urée. Lorsque les gaz d’échappement d’un moteur diesel entre en contact avec ce mélange, ils réagissent pour donner essentiellement de l’eau, de l’oxygène et un peu de CO2. Le système réduit les émissions d’oxydes d’azote par environ 90 %. Notons qu’il existe aussi d’autres systèmes qui agissent plutôt comme des filtres (qui doivent être nettoyés périodiquement), et qu’il est possible que les moteurs fautifs en aient été munis ; l’avis d’infraction de l’EPA n’est pas clair là-dessus, voir page 4.

Le système implique cependant de munir les autos d’un réservoir pour le mélange d’eau et d’urée — et j’imagine qu’il faut le remplir de temps à autre. Mais depuis quelques années, VW se targuait d’être parvenu à se passer de cette mixture. On ne savait trop comment, mais le fait demeurait que ses voitures diesel passaient les tests de l’EPA sans problème — et n’était-ce pas là le plus important ?

Or, un groupe de chercheurs de l’Université de Virginie occidentale et du Conseil international des transports propres a fini par vouloir comparer les émissions des modèles vendus en Europe et aux É-U. Comme ils faisaient des tests de route réelle — au lieu des tests en labos, qui se déroule sur l’équivalent de «tapis roulants» —, ils s’attendaient à obtenir des résultats plus élevés que les valeurs indiquées par les fabricants, mais les écarts qu’ils ont noté étaient tels (jusqu’à 40 fois les limites permises) qu’ils ont alerté l’EPA. Placé devant ces faits, VW a apparemment admis ses torts presque tout de suite (correction : d’après l’avis d’infraction de l’EPA, VW a nié la faute pendant un certain temps).

L’entourloupe était la suivante : contrairement aux prétentions de la compagnie, ses moteurs diesel avaient toujours besoin du mélange d’eau et d’urée, et ses autos en étaient toujours équipées. Mais VQ avait introduit quelques lignes de code dans ses ordinateurs de bord afin qu’ils reconnaissent quand ils sont en situation de test environnemental (moment où le moteur est sollicité, mais pas la direction) et quand ils sont en situation de conduite réelle. Et le tout était programmé pour que le système antipollution ne démarre que dans le premier — alors autant dire jamais.

Notons enfin avec le New Scientist que, de manière plus générale, cet épisode soulève une fois de plus la question de la validité des tests d’émission en laboratoire. Et ce n’est pas une question facile. D’une part, bien sûr, l’idéal serait de toujours mesurer les émissions des véhicules en situation réelle, sur de vraies routes. Mais la vraie vie étant ce qu’elle est, cela ferait intervenir une foule de facteurs différents — topographie, force et direction des vents, température au moment du test, condition de la chaussée, précipitation, etc. — qui empêcheraient toute comparaison entre les voitures. D’où l’intérêt des tests en labo, même si ceux-ci donnent des résultats qui, en bout de ligne, n’ont pas grand-intérêt, puisque c’est la pollution réelle que l’on veut savoir ici. L’Union européenne prévoit d’ailleurs imposer des mesures plus réalistes à partir de 2017.

AJOUT (22 sept, 8h45) : tel que promis, voici quelques autres liens qui aident à voir clair…

- https://www.washingtonpost.com/news/the-switch/wp/2015/09/22/the-tech-behind-how-volkswagen-tricked-emissions-tests/

- http://www.vox.com/2015/9/21/9365667/volkswagen-clean-diesel-recall-passenger-cars

- http://www.lemonde.fr/planete/article/2015/09/22/l-ong-a-l-origine-du-scandale-volkswagen_4767318_3244.html#xtor=RSS-3208

- http://www.greencarreports.com/news/1100125_vw-diesel-emissions-recall-what-you-need-to-know-in-10-questions

Lire les commentaires (50)  |  Commenter cet article






Jeudi 18 juin 2015 | Mise en ligne à 10h37 | Commenter Commentaires (24)

Le graphène : un miracle qui attend son problème ?

Le graphène est un cristal de carbone en 2 dimensions, c'est-à-dire qu'il ne fait qu'un seul atome d'épaisseur. (Photo : archives Le Soleil)

Le graphène est un cristal de carbone en 2 dimensions, c'est-à-dire qu'il ne fait qu'un seul atome d'épaisseur. (Photo : archives Le Soleil)

De tous les nouveaux matériaux qui ont été mis au point ces 20 dernières années, aucune n’a été autant porté aux nues que le graphène — qui est essentiellement une feuille de cristaux de carbone si mince qu’elle ne fait qu’un seul atome d’épaisseur. Fabriqué pour la première fois en 2003 et qualifié par plusieurs de nouvel or noir, le graphène a valu le prix Nobel de physique à ses découvreurs dès en 2010, un délai extraordinairement court justifié par ses propriétés extraordinaires, qui laissent entrevoir une révolution technologique comparable celle que le laser a mis en branle : 200 fois plus fort que l’acier, léger, meilleur conducteur électrique et thermique que le cuivre, etc.

Mais voilà, lit-on dans ce papier paru sur le site de Nature, en 2013 les ventes de ce matériau-miracle se sont élevés à… 12 millions $. Pas milliards, millions. En en 2025, on projette que le marché mondial sera d’à peine 350 millions $.

Ce ne sont pourtant pas les applications envisagées qui manquent, lit-on dans l’article. Le graphène, par exemple, a la faculté de transformer presque tous les photons qui le frappent en courant électrique, ce qui pourrait en principe en faire le Saint-Graal des panneaux solaires, sans compter un potentiel énorme pour emmagasiner l’énergie. Mais pour l’heure, il n’a trouvé que bien peu d’applications, notamment dans des alliages pour renforcer des matériaux.

Son amalgame de solidité, de souplesse et de conductibilité en ferait un candidat absolument rêvé pour les écrans tactiles, mais il n’a jusqu’à maintenant été utilisé que dans une infime poignée («pincée» serait même plus approprié) de modèles, parce qu’il reste deux fois plus cher que les matériaux actuels. Et peut-être aussi parce que ces derniers font très bien l’affaire…

Bref, l’article de Nature décrit (implicitement) le graphène comme une solution qui se cherche un problème, et trace (explicitement) un parallèle avec les nanotubes de carbone — un autre matériau remplis de belles promesses, mais qui ne «lève» pas. Le texte est fort intéressant et rudement bien documenté, je vous en recommande sincèrement la lecture. Mais je trouve aussi qu’il est un-peu-pas-mal tôt pour déplorer que le graphène n’a toujours pas trouvé de «killer application» qui fait vraiment décoller la production. Seulement 12 ans ont passé depuis la première fabrication du graphène ; à vue de nez, cela peut sans doute paraître bien long avant de trouver quelque chose à faire avec une découverte, mais quiconque connaît un peu son histoire des sciences sait que c’est, au contraire, très court.

Reprenons l’exemple du laser, sans doute la révolution technologique la plus importantes des 50 dernières années — avec l’informatique. Il a été mis au point pour la première fois en 1960 dans les célèbres laboratoires Bell, aux États-Unis. Ses pionniers n’entrevoyaient pas, au début, à quel point leur trouvaille allait chambouler la «planète techno», mais il ne lui a fallu que quelques années pour commencer à faire boule de neige.

Les premières applications du laser furent faites en science, car il était évident dès le départ qu’une nouvelle forme de lumière allait permettre de sonder la matière de façon inédite. Des applications de mesure de distance apparurent relativement rapidement aussi, mais je ne crois pas me tromper ou déformer beaucoup la réalité en disant que le laser a connu une première décennie à peu près aussi «humble» que le graphène.

Et il faut aussi garder un autre point important à l’esprit : non seulement est-il normal qu’il se passe facilement 10 ans avant que l’on mette au point les premières applications d’une découverte, mais on doit aussi s’attendre à ce que l’application, si révolutionnaire et utile soit-elle, prenne une autre bonne décennie avant de se diffuser pour la peine. Toujours dans le cas du laser, mentionnons que les lecteurs de code-barre sont apparus en 1974, mais que leur usage ne s’est vraiment généralisé que 10 à 15 ans plus tard. De même, la première imprimante laser a été fabriquée en 1971 (!), mais elle n’a pris le pas sur les autres technologies d’impression que dans les années 90 — encore que cela a pu varier selon les domaines, bien entendu.

Bref, et vous me direz ce que vous en pensez, je ne doute absolument pas que le graphène trouvera une multitude d’applications, dont certaines pourraient bien changer nos vies. Mais il faut simplement réaliser que cela prend du temps. C’est une chose que de faire une découverte dans un labo. C’en est une tout autre (et une très complexe) pour une société que d’apprendre à s’en servir.

Lire les commentaires (24)  |  Commenter cet article






publicité

  • Catégories

  • Blogues sur lapresse



    publicité





  • Calendrier

    juillet 2016
    D L Ma Me J V S
    « juin    
     12
    3456789
    10111213141516
    17181920212223
    24252627282930
    31  
  • Archives