Sciences dessus dessous

Archive de la catégorie ‘Innovation et technologies’

Lundi 24 octobre 2016 | Mise en ligne à 10h27 | Commenter Commentaires (28)

Le monde à la merci des hackers ?

(Image : archives La Presse)

(Image : archives La Presse)

Ce serait arrivé dans un film que j’aurais complètement décroché. Me serais dit quelque chose comme : «Hé, oh, les scénaristes à 2 ¢, pirater les courriels de la secrétaire d’État américaine, ceux de l’entourage immédiat d’une potentielle présidente des États-Unis (plus d’une fois) et, cerise sur le sundae, ceux du grand patron de la CIA, le tout en environ 2-3 ans, ça se peut pas. Dans hauts placés comme eux, de surcroît dans l’administration de la première puissance militaire et économique mondiale, ça doit avoir des petites armées d’informaticiens qui les défendent en permanence. Alors un qui se fait pirater, une fois, OK. Mais autant que ça ? Pfff…»

Et pourtant, c’est en plein ce qui est arrivé dans la «vraie vie». Hillary Clinton pourrait bien avoir vu ses courriels piratés lorsqu’elle dirigeait les affaires étrangères américaines — ou du moins fut-elle très chanceuse si ce n’est pas le cas. Son directeur de campagne, John Podesta, s’est fait faire le coup cet automne. Le Comité national du Parti démocrate y est passé cet été. Et même le directeur de la CIA, John Brennan, a vu sa correspondance électronique atterrir sur le site WikiLeak l’an dernier.

Alors je me suis posé la question : comment cela est-il possible ? Comment des «gros bonnets» comme eux, avec les moyens qu’ils ont et l’importance stratégique d’à peu près tout ce qu’ils écrivent et partagent, peuvent-ils être aussi vulnérables ?

Très simple, m’ont répondu en substance quelques cracks de la sécurité informatique : en comptant toutes les failles techniques et toutes les défaillances humaines (nombreuses, puisque l’entourage des gens puissants est toujours étendu), il est impossible de boucher tous les trous. Impossible. On peut (et doit) s’arranger pour ajouter des «cadenas» dans les systèmes informatiques, étapes supplémentaires qui allongent le travail des hackers — au point, espère-t-on, de les convaincre que le piratage n’en vaut pas la peine. Mais il n’existe pas de machine impossible à pirater. Et les «trous» potentiels peuvent s’ouvrir un peu n’importe où.

Plus de détails dans mon dossier paru ce week-end, dans Le Soleil.

Lire les commentaires (28)  |  Commenter cet article






Mardi 18 octobre 2016 | Mise en ligne à 10h49 | Commenter Commentaires (58)

Idiocracie 2.0

(Photo : AFP/archives La Presse)

(Photo : AFP/archives La Presse)

Un Américain «moyen», mais vraiment tout ce qu’il y a de plus moyen, participe à une expérience de l’armée pour tester une méthode d’«hibernation» permettant de suspendre la vie d’un humain et de la reprendre très longtemps après. Il se réveille 500 ans plus tard pour constater, à son grand désarroi, que dans les sociétés modernes, les gens instruits et intelligents ont eu moins d’enfants que les gens qui sont trop stupides pour planifier les naissances, si bien qu’après cinq siècles de sélection «naturelle», le pauvre gars est l’homme le plus intelligent du monde — et par une sacrée marge.

Ce cauchemar absurde est le synopsis du film Idiocracy, dont je vous recommande chaleureusement l’écoute dès que vous sentirez le besoin d’un gros rire épais. Mais il semble que nous vivions déjà un peu dans une idiocracie. Seulement, ce n’est pas la faute de la sélection sexuelle, mais bien celle de l’intelligence artificielle, à laquelle on laisse de plus en plus de place bien qu’elle ne soit pas toujours particulièrement brillante — du moins pas encore.

«Il y a des gens qui s’inquiètent de ce que les ordinateurs sont en train de devenir trop intelligent et qu’ils vont prendre le contrôle de la planète. Mais le vrai problème, c’est qu’ils sont franchement stupides et qu’ils ont déjà pris le contrôle», déplore l’informaticien Pedro Domingos dans cet excellent article qui vient de paraître sur le site de Nature et qui fait un contrepoids bienvenu aux thèses — pas forcément fausses, remarquez — voulant qu’un jour, l’intelligence artificielle pourra se passer des humains. Ou pire, nous éliminer.

Pour l’heure, déplorent les auteurs du texte Kate Crawford (MIT) et Ryan Calo (Washington U), on déploie beaucoup de systèmes d’intelligence artificielle et d’algorithmes dans toutes sortes de secteurs pour aider à la prise de décision, et on prévoit que la tendance s’accélérera beaucoup dans les années à venir parce qu’on leur prête de grandes vertus, en particulier le fait de ne pas avoir les biais et les idées préconçues du cerveau humain. Mais le hic, c’est que plusieurs de ces systèmes se sont avérés, à l’usage, être tout aussi biaisés que nous — par exemple, des algorithmes utilisés pour aider à décider si un détenu peut être libéré ou s’il est encore trop dangereux semblent discriminer les minorités visibles. Garbage in, garbage out, comme disent les informaticiens : si ceux qui conçoivent les algorithmes ont des préjugés raciaux, les variables qu’ils intégreront à leurs formules, et le poids qu’ils donneront à chacune, risquent fort de refléter ces biais.

En outre, signalent Crawford et Calo, on ne semble pas se soucier suffisamment de l’impact que ces systèmes d’IA auront sur la société. En 2013, par exemple, la police de Chicago a testé un programme qui devait identifier les gens les plus à risque d’être victimes de crimes commis avec des armes à feu, afin de les protéger. Une étude parue le mois dernier a trouvé que l’«algo» n’avait pas réduit la criminalité ; le principal effet a été que les victimes potentielles identifiées par l’IA couraient un risque accru d’être… arrêtées par la police, possiblement parce que celle-ci utilisait l’outil pour retracer des suspects.

Il faudrait, plaide le duo d’auteurs, faire le tour des gens qui pourraient être touchés afin de voir avec eux, en amont de tout déploiement, comment ils pourraient être concernés — Crawford et Calo appellent cela social systems analysis. Il y a quelque chose d’un peu naïf, je trouve, dans leur manière de décrire ces analyses, comme s’il était possible de prévoir comment réagira un système extrêmement complexe à un élément de nouveauté. On ne le peut pas en amont, ou du moins c’est très loin d’être parfait. Ça vaut pour ce que fera un nouveau médicament dans l’organisme, ça vaut pour un nouveau polluant dans l’environnement, ça vaut pour n’importe quel gadget qu’on lance dans une société. Il est impossible d’en prédire les effets sur toutes les parties du système, c’est tout simplement trop complexe. Si l’on veut profiter des bienfaits de l’innovation, il faut vivre avec une certaine part de risque, accepter que l’on ne peut pas tout prévoir, que l’on va se tromper de temps à autres et qu’il faudra «changer d’idée».

Mais le fait est qu’en ce moment, comme le souligne le texte de Nature, il n’y a tout simplement rien, aucun test qui régit l’introduction de nouveaux morceaux d’intelligence artificielle dans nos sociétés. On fait des essais cliniques pour les nouveaux médicaments, on fait des tests de toxicité environnementale et humaine pour de nouveaux pesticides ou d’autres nouveautés mises au point par l’industrie chimique. Mais on ne fait rien pour l’IA, alors que ces innovations touchent du «vrai» monde, elles aussi. Peut-être qu’on devrait…

Lire les commentaires (58)  |  Commenter cet article






Mardi 16 février 2016 | Mise en ligne à 12h16 | Commenter Commentaires (78)

Serez-vous remplacé bientôt par un robot ?

Le futur tombeur des traducteurs ? (Photo : starwars.com)

Le futur tombeur des traducteurs ? (Photo : starwars.com)

Un prof de génie mécanique me faisait récemment cette observation : quand on essaie de projeter l’industrie du transport individuel dans l’avenir, la bataille que se livrent les chauffeurs de taxis et les chauffeurs d’Uber devient soudain un bien drôle de spectacle. Ou une triste vision, selon le point de vue. Car tout indique que les véhicules pilotés par ordinateur sont à nos portes — et il y a fort à parier qu’une fois sur le marché, ils prendront éventuellement la place d’une grande partie, sinon de la plupart des chauffeurs actuels, qu’ils soient au volant de taxis, de navettes ou de camions.

Google se targue d’avoir des voitures automatiques qui ont autour de 1,6 million de kilomètres au compteur sans être impliqué dans un nombre anormal d’accidents — et encore, habituellement dûs aux humains autour. Plusieurs autres grandes compagnies travaillent sur des projets semblables. Pour tout dire, l’Ontario a même lancé un appel d’offres en début d’année pour que des voitures sans conducteur soient testées sur ses routes.

Et un panel d’experts s’est réuni le week-end dernier, au congrès annuel de l’Association américain pour l’avancement des sciences (AAAS, qui publie la prestigieuse revue savante Science), pour tenter d’entrevoir quels corps de métiers risquent d’être remplacés par des robots. Tous ceux qui se trouvent derrière un volant risquent d’y passer. Mais plus largement, prévoient-ils, les automates vont sans doute surtout prendre la place de gens dans la classe moyenne. Les travailleurs très qualifiés (médecins, psychologues, ingénieurs, avocats, etc) dont les tâches demandent des qualités que les ordinateurs n’auront sans doute jamais, comme la créativité, la contextualisation et le contact humain, n’ont évidemment pas à s’en faire : on aura toujours besoin d’eux. À l’autre bout de l’échelle sociale, les gagne-petit dont le salaire est trop faible pour qu’il vaille la peine de les remplacer peuvent eux aussi dormir sur leurs deux oreilles.

Pour l’instant, du moins. Car la concurrence pour leurs postes pourraient s’intensifier à mesure que d’autres, dans la strate du milieu, seront remplacés par des machines. Le processus est commencé depuis longtemps dans le secteur manufacturier, jadis fief de «l’aristocratie des cols bleus». Maintenant, toute la question est de savoir si les emplois perdus ici seront récupérés (et même plus) là-bas, sous une forme ou sous une autre. Certains des présentateurs de l’AAAS, comme le chercheur de l’Université Rice en intelligence artificielle Moshe Vardi, sont clairement dans le camp des pessimistes, il faut le noter.

La théorie économique classique dit essentiellement de ne pas s’en faire : tout gain de productivité est une bonne chose parce que cela dégage de meilleurs profits qui sont ensuite réinvestis ailleurs, ce qui «crée des jobs», en bout de ligne. De ce point de vue, la productivité et l’emploi marchent littéralement main dans la main, et l’automatisation ne détruit pas les emplois, elle transforme le marché du travail — le secteur des services a littéralement explosé en même temps que l’emploi manufacturier battait de l’aile.

Mais voilà, tous les économistes ne sont pas de cet avis. Depuis quelques années, les économistes du Michigan Technology Institute Erik Brynjolfsson et Andrew McAfee font valoir que la théorie classique était historiquement vraie, mais qu’on assiste à un découplage de l’emploi et de la productivité, comme si les gain de productivité réalisés grâce aux machine ne faisaient que remplacer des travailleurs sans créer de nouveaux postes ailleurs. Quelque part autour de l’an 2000, disent en s’appuyant sur ce graphique ci-dessous, un découplage de l’emploi et de la productivité est survenu : la productivité a continué d’augmenter pendant que l’emploi stagnait.

(Source : http://goo.gl/aZoj1M)

(Source : http://goo.gl/aZoj1M)

Une partie de ce découplage s’explique par un déplacement (d’emplois relativement peu productifs) vers l’Asie, mais les deux économistes craignent qu’il n’y ait quelque chose de plus fondamental, une sorte de point de bascule au-delà duquel les humains perdent purement et simplement leur place au profit des machines.

La thèse de Brynjolfsson et McAfee, il faut le souligner, ne rallie pas beaucoup de leurs collègues. Un bon exemple de contre-pied est ce texte du chercheur en politiques des sciences et de la technologie de l’Université du Colorado Roger Pielke Jr. Celui-ci argue en substance que la productivité est un indicateur trop brut pour mesurer l’impact de la technologie sur l’emploi — la «productivité globale des facteurs» (PGF) est l’indicateur qu’il provilégie. La PGF est toute la croissance qui ne provient pas du capital et du travail ; par exemple, en agriculture, l’ensoleillement peut accroître la production sans que les autres facteurs ne bougent. Et la principale composante de la PGF est l’innovation technologique.

En prenant cela comme indicateur, M. Pielke constate que l’emploi privé s’est découplé de la PGF non pas vers l’an 2000, mais plutôt au tournant des années 80. Ce qui coïncide avec le sommet de l’emploi manufacturier aux États-Unis. Or l’emploi (privé, toujours) a continué de progresser pendant 20 ans après ce découplage, ce qui fait dire à M. Pielke que ce n’est pas la technologie qui est derrière la stagnation de l’emploi chez l’Oncle Sam depuis 15 ans.

Bref, comme dans bien des débats d’économistes, il est un peu difficile d’y voir clair. Mais si (et j’ai bien dit «si») Brynjolfsson et McAfee ont raison, le sociologue du dimanche en moi entrevoit un avenir rempli d’explosions sociales. Car s’il (encore une fois, «si») faut 115 de QI pour bien s’en tirer dans le futur, qu’est-ce qu’on dira aux quelque 60 % qui n’ont pas le cerveau qu’il faut ? Die, fuckers ?

Lire les commentaires (78)  |  Commenter cet article






publicité

  • Catégories

  • Blogues sur lapresse



    publicité





  • Calendrier

    décembre 2016
    D L Ma Me J V S
    « nov    
     123
    45678910
    11121314151617
    18192021222324
    25262728293031
  • Archives