Sciences dessus dessous

Sciences dessus dessous - Auteur
  • Jean-François Cliche

    Ce blogue suit pour vous l'actualité scientifique, la décortique, et initie des échanges à son sujet.
  • Lire la suite »

    Partage

    Mardi 14 juin 2011 | Mise en ligne à 16h00 | Commenter Commentaires (36)

    Une grosse bête numérique

    Une très grosse bête numérique vient de voir officiellement le jour à Montréal, et ronronne de tous ses teraflops dans les locaux de l’École de technologie supérieure.

    Hébergé par l’ÉTS, mais propriété de l’Université McGill, qui l’a acquis pour 8,3 millions $, le nouveau superordinateur a officiellement commencé ses opérations hier. Il s’agit du supercalculateur le plus puissant du Québec et du 2e au Canada, avec une capacité de calcul de 136 teraflops. Le «flops», pour floating point operations per second, «opérations en virgule flottante», est une façon de mesurer la puissance d’un ordinateur en comptant le nombre d’opérations mathématiques sur des nombres réels — et non des entiers, d’où l’idée de «virgule flottante» — qu’un ordinateur est capable d’accomplir en une seconde.

    Les 136 teraflops du nouveau jouet de McGill signifient donc qu’il peut en accomplir 136 000 milliards par seconde, ce qui le place au 46e rang mondial du top500 des plus puissants ordis de la planète — mais notons qu’il s’agit du classement de novembre dernier, qui sera remplacé très bientôt par un nouveau. Par comparaison, «Colosse», la machine installée à l’Université Laval en 2009, développe 77 teraflops, bon pour le 97e rang mondial.

    L’animal numérique de McGill est également le 2e le plus «écoénergétique» au Canada, tirant pas moins de 300 mégaflops de calcul par watt de puissance électrique — une machine de l’Université de Colombie-Britannique atteint les 400 mflops/w. La Colosse de l’UL n’en tire que 232, mais il faut dire ici que cette mesure ne tient pas compte du design et de la récupération de chaleur, qui est un fort du supercalculateur de Québec.


    • Donc environ 45 kW pour une calculatrice de course. La batterie doit être dispendieuse à remplacer.

      J’espère que ce ne sera pas un teraflop monumental…

      Bon bon! d’accord; Je n’ai pas pu m’empêcher.

    • J’aimerais en apprendre un peu plus sur l’utilisation qu’on fait de ces superordinateurs. En particulier, au niveau de la programmation et de l’optimisation du code. La machine la plus puissante avec la cadence d’horloge la plus élevée, la meilleure synchronisation entre les coeurs, les lignes de bus les plus rapides, et le nombre de processeurs le plus élevé… ne vaudra rien si on programme de manière à gaspiller ces précieuses ressources. Alors, que font les programmeurs pour profiter pleinement de cette armée de superfourmis marchant au pas?

    • “Une observation annoncée au début d’avril et qui avait alors été décrite comme la découverte possible d’une nouvelle particule élémentaire, voire d’une force inconnue de la nature, n’a pu être confirmée par d’autres physiciens qui vérifiaient les résultats obtenus.”
      La littérature ésotérique traite abondamment de l’existence de cet autre monde. C’est surprenant de voir la réaction des scientifiques pour une telle banalité.
      Maintenant, il faut savoir comment s’y rendre! Refaîtes-vous une vraie culture scientifique.
      C’est une force inconnue de la nature. Tout simplement.

    • @hdufort Vous avez raison au niveau de l’optimisation du code, ce n’est pas trivial. Même si on a une super-machine, il faut faire très attention à la façon dont le code est écrit. La principale difficulté est de paralléliser le code. Dans le cas de plusieurs problème cela se fait naturellement. Mais dans d’autres cas, ce n’est pas vraiment possible.

    • @samsuffi L’existence de la dite particule élémentaire a été démentie cette semaine. Vous pouvez retourner dans le monde ésotérique afin de vous réfugier du monde réel.

    • Bof!

      Si tous les étudiants de l’ETS pluguent leut TI ensemble ils atteindront un autre premier rang dans leur activités parascolaires.

    • Il y a des compilateur pour optimiser le code parallèle. Mais, ça ne répond pas à tous les cas. On le voit dans les collisions dans le pipelining dans nos CPU Intel. Ca dépend beaucoup de la nature du programme ou de ce qu’on veut calculer/traiter.

      Ca fait penser à la météorologie. Ca prend encore un humain pour reconnaitre quel modèle appliquer aux données brutes. C’est pourquoi les prédictions varient d’un poste de radio à un autre même si les données viennent toutes de Environnement Canada.

      C’est ce qui en fait un domaine pour les gens qui savent sortir du cadre.

      Et ça s’en vient pour les applications de tous les jours comme les entrepots de données. On a maintenant des base de données qui peuvent fonctionner avec plusieurs engins sur la même BD. On a des BD en mémoire. Couplés à des CPU qui ont maintenant des canaux de communication multiple avec la mémoire.

      Le logiciel et le hardware progressent “en parallèle”.

      @pensezy
      Ca pourrait être pire : un “péta” flop.

      @samsuffi
      Dans le fond l’ésotérisme, c’est un genre de calmant. Un calmant intellectuel et non bio-chimique. Quand on a des doutes ou des questionnements, plutot que de céder à l’anxiété (ou à la curiosité qui nous ferait découvrir la réponse), on se dit que c’est une force inconnue. Ca fait simple, en effet.

    • Dans un sujet connexe, j’ai lu récemment que l’Irlande commençait à avoir de sérieux problèmes avec son réseau électrique. Après avoir accueilli une ÉNORME quantité de centres d’appels informatisés et d’entrepôts de données (donc de milliers de serveurs), la consommation d’électricité a bondi. Avec l’arrivée de l’infonuagique (cloud computing), la taille et le nombre de “fermes de serveurs” risque de continuer à augmenter, tout comme la bande passante utilisée.

      L’idée la plus bizarre (saugrenue?) avancée par ServerSky? Mettre les centres de données en orbite basse, là où l’énergie solaire est abondante et le refroidissement n’est pas un problème. Par contre, bonne chance pour réparer même la plus petite panne de matériel. Il faut beaucoup, beaucoup de redondance!
      http://server-sky.com/

      L’étape suivante: pourrions-nous mettre des grappes de serveurs dans des essaims de micro-satellites captant l’énergie solaire et communiquant par faisceaux de micro-ondes? Ce serait “super-cool” (ha!)

    • @hdufort: Server Sky semble une bonne idée, mais gare à la prochaine tempête solaire!

      “The most likely technical showstopper is radiation damage. The most likely practical showstopper is misunderstanding. Working together, we can fix the latter. ”

      Christian

      Pourriez-vous préciser votre source ?
      JFC

    • @hdufort
      Google veut créér des centres de calculs flottants. La mer (et le vent) fournirait l’énergie et le refroidissement.

      http://www.datacenterknowledge.com/archives/2008/09/06/google-planning-offshore-data-barges/

      Attention qu’il ne partent pas à la dérive. Ils se transformeraient en OVNI (Objets Voguant Non Identifiés). OVNI qui font parfois couler des bateaux. Comme le voilier québécois qui participait à la course Québec-St Malo, il y a quelques années. Il a frappé un conteneur qui flottait entre deux eaux.

      En tout cas, si ça marche, un jour on pourra peut-être marcher jusqu’en Europe.

      “Infonuagique” !! J’espère que personne n’aura le coup de “foudre” pour ce mot.

    • @chrstianb,
      Assez curieusement, les plus récentes prévisions indiquent que le prochain cycle solaire serait l’un des plus calmes jamais enregistrés, bref, que nous aurons peut-être bientôt droit à une période de refroidissement de 11 ans. Je ne sais pas si cela correspondrait aussi à une réduction du nombre de tempêtes solaires de classe G*.

    • Pourquoi ne pas installer les serveurs DANS les structures des éoliennes… ou carrément sur le site des centrales électriques, en général? Pourquoi ne pas utiliser la chaleur dégagée par les serveurs pour alimenter par convection une génératrice (machine de Sterling ou échangeur de chaleur à gradient moyen)? J’imagine Hydro-Québec qui ouvre un énorme entrepôt pour serveurs près d’une centrale de la Baie James, en offrant en bonus un bon niveau de sécurité contre les intrusions, contre les actes terroristes, etc. En prenant l’électricité à la source on minimise les pertes; une ligne de fibre optique sur 3000 km demande pas mal moins de soins qu’une ligne électrique.

    • @hdufort
      Et à la Baie James, il fait plus froid que bien des endroits aux States. Climatisation presque gratuite. Attention de ne pas faire entrer de mouches noires. Il pourrait y avoir des “bugs”.

    • @hdufort Je ne sais pas où ils ont pris qu’il était facile de se refroidir en orbite basse. C’est un des pires endroits du point de vu thermique. Coté communication c’est pas trivial.

      Je sais qu’il y a eu un projet de mettre un serveur dans le Saint-Maurice. Cela fait quelques années qu’on essaye de vendre notre électricité propre pour faire marcher les serveurs, mais il n’y a pas eu encore de succès.

    • “hdufort Si le Soleil entre dans un minimum de Maunder, on gagne une décennie tout au plus avant que les gaz à effet de serre reprennent le dessus.

    • @yvan_dutil,
      Tout à fait d’accord sur le répit de 11 ans. Hélas, un tel répit climatique donnerait la fausse impression que la Terre se refroidit; déjà que beaucoup de gens refusent de croire au réchauffement climatique (parce que ça fait leur affaire, bien souvent!)

      Pour ce qui est des satellites, ils parlent de radier la chaleur dans le vide, ce qui est possible si on a une surface qui peut faire office de radiateur (ie une surface qui produit aisément un rayonnement infrarouge). Il y a beaucoup de questions sans réponse dans ce projet, mais on peut quand même saluer son côté audacieux.

    • @samsuffi

      SVP, dites-moi que vous plaisantez ou que c’est de l’ironie! “Littérature ésotérique” et “vraie culture scientifique” dans le même paragraphe, il faut le faire. L’ésotérisme, c’est comme les religions, i.e. que les principes qu’elles présentent comme étant des vérités absolues proviennent directement de l’imagination de ceux qui les écrivent et ce sans aucune preuve tangible.

      Et c’est encore pire lorsque ces gens tentent d’utiliser la science afin de démontrer leurs divagations. Un peu comme vous le faites avec votre “autre monde” prédit pas l’ésotérisme. En quoi la découverte d’une force inconnue jusqu’à maintenant prouverait cela? Ce ne serait qu’une nouvelle force qui s’ajouterait à celles que l’on connait déjà. Une grande découverte scientifique évidement, mais qui n’aurait rien à voir avec un monde parallèle mystique ou peu-importe comment vous le qualifiez.

      En fait, les vrais scientifiques n’osent même pas croire dur comme fer en leurs propres théories. Prenons par exemple le modèle standard qui est sensé décrire le monde des particules. La grande majorité des calculs théoriques et des expériences empiriques démontre sa validité depuis des dizaines d’années. Pourtant, les physiciens n’y croient toujours pas car il manque une pièce maitresse qu’ils n’ont pas encore réussi à observer expérimentalement: le fameux boson de higgs. Petite parenthèse:

      En général, Les gens croient à tort que le boson de higgs est LA particule qui donne la masse à toutes les autres. Ce n’est pas tout à fait exacte. Ce qui donnerait la masse aux particules, toujours selon le modèle standard, c’est le CHAMP de higgs, un champ scalaire (ce qui veut dire qu’il ne se propage pas dans une direction particulière mais est plutôt présent uniformément dans l’univers). Les particules massives seraient “freinées” par ce champ et la différence entre leur vitesse par rapport au champ de higgs et celle de la lumière serait transformée en masse selon E=mc^2. Une sorte de friction, si on veut, mais au lieu de transformer de l’énergie cinétique en chaleur, ce champ transforme l’énergie en masse. Les photons n’interagissent pas avec ce champ (aucune friction), ce qui fait qu’ils se déplacent à la vitesse de la lumière. Par contre, les particules très massives comme les protons interagissent beaucoup avec ce champ, ce qui leur donne une masse équivalente à 938 MeV/c^2. Si on augmente l’énergie d’un proton à une vitesse proche de celle de la lumière, sa masse augmente drastiquement.

      Par exemple, un proton accéléré par le LHC peut atteindre une énergie cinétique de 7TeV (7 mille-milliard d’électron-volt). À cette vitesse, il possède une masse (dans le référentiel du laboratoire) 7460 fois plus élevé que sa masse au repos. Cette masse extrême est due à la théorie de la relativité restreinte d’Einstein. Une masse aussi élevée qui entre en collision avec une autre masse équivalente (les deux faisceaux du LHC qui se rencontrent face à face) devrait produire une “vague” dans le champs de higgs. C’est à dire une ondulation du champ qui se manifesterait sous la forme d’une particule que l’on a baptisé “boson de higgs”.

      Le modèle standard ne peut prédire l’énergie exacte nécessaire afin de produire ce boson mais il permet de déterminer un “range” d’énergie dans lequel il est possible de le produire. L’énergie du LHC est en haut de la limite maximum, ce qui fait que si on le voit pas avec cette instrument, c’est qu’il n’existe pas, du moins selon les prédictions du modèle standard. Ce qui voudrait dire que la théorie est fausse et qu’il faut trouver autre chose (un nouveau modèle qui tient compte de cette “non-découverte”). Mais la plupart des physiciens affirment que la non-découverte du higgs serait plus intéressante que sa découverte car cela nous forcerait à revoir la théorie dans son ensemble. Ce serait une sorte de révolution de la physique des particules.

      Fin de la parenthèse. Je me suis un peu égaré comme d’habitude! Pour ceux qui aiment rire en lisant des trucs ésotériques ou paranormaux, je vous conseil cet article qui analyse et critique les arguments du livre de Marie-Monique Robin: Le sixième sens. Science et paranormal . À ne pas lire si une fenêtre est à proximité car vous pourriez vous jeter au-travers tellement les arguments “scientifiques” de madame Robin sont ridicules.

    • @jaylowblow,
      Merci pour cette explication sur le Boson de Higgs. J’ai rarement vu la complexité de la chose résumée d’une manière aussi limpide.

      Et parlant du mélange de science et d’ésotérisme… même les esprits les plus brillants n’y échappent pas toujours. Par exemple, sir Roger Penrose (que j’admire beaucoup) a déjà publié un livre où il explore la dimension quantique du cerveau humain. Or, ce livre est bourré d’erreurs, d’affirmations difficiles à croire (information voyageant plus vite que la vitesse de la lumière?!) et d’arguments qui touchent plus au mysticisme qu’à la science (non-localité de la conscience?!). Et on parle ici d’un des esprits les plus brillants du siècle! Dommage.

      Quant à Arthur Eddington, un physicien émérite ayant travaillé à valider les théories d’Einstein, a fini par verser dans la numérologie (une pseudoscience) jusqu’à la fin de sa vie, cherchant des coïncidences numériques entre plusieurs domaines de recherche (physique quantique, astronomie, etc).

    • @jaylowblow
      C’est un bel égarement et vous vulgarisez très bien. Je suis un homme et j’aime bien entendre parler de boson … ou est-ce plutot de “bosom” ?

      “En accord avec la vision d’Einstein avec qui il a travaillé, il pense que les événements apparaissant comme aléatoires au niveau subatomique doivent être sous-tendus par un ordre déterministe, où tous les objets et phénomènes, mais aussi les psychismes, seraient reliés entre eux grâce à des connexions non-locales. D’où les phénomènes de clairvoyance »”

      Einstein doit se rouler par terre !!!

    • @hdufort

      Vous faites référence, je crois, au livre ‘The Emperor’s New Mind’ de Penrose. J’ai lu ce livre (le sujet semblait captivant) pour constater, comme vous, que c’était du vent ésotérique que j’arrivais difficilement à concilier avec ce que je connais du monde scientifique. Brillant, Penrose ? Étant donné que c’est le seul ouvrage que j’aie lu du monsieur, j’en ai toujours douté…

      À la défense de Roger Penrose, sa réputation de physicien demeure immense — Stephen Hawking en parle d’ailleurs en des termes extrêmement élogieux dans «Une brève histoire du temps». J’imagine que l’épisode du livre «The New Emperor’s Mind» (que je n’ai pas lu, je dois préciser) prouve simplement que même les plus grands esprits peuvent s’égarer, surtout quand ils abordent des questions qui sortent de leur champ d’expertise.
      JFC

    • @jaylowblow

      C’est effectivement un plaisir de vous lire car grâce à vous j’arrive à saisir (je pense) des trucs qui m’échappent la plupart du temps.

      Mais comme le fait l’auteur de ce blog, Penrose est loin d’être un illuminé. On en a encore beaucoup à apprendre. Et que ce qui est considéré ésotérique ne le sera peut-être plus dans un futur pas si lointain…

    • Penrose a révolutionné un domaine assez spécial des mathématiques, soit l’étude des pavages. Il a démontré qu’on peut créer un pavage non périodique de taille infinie (autrement dit, avec un nombre fini de formes géométriques, on peut couvrir une surface de taille infinie sans que le motif se répète).
      http://fr.wikipedia.org/wiki/Pavage_de_Penrose

      Penrose a aussi fait avancer notre compréhension des trous noirs et de la topologie de l’univers. Il a par ailleurs travaillé avec Stephen Hawking sur le sujet.
      http://en.wikipedia.org/wiki/Penrose_diagram
      http://fr.wikipedia.org/wiki/Processus_de_Penrose
      http://en.wikipedia.org/wiki/Penrose%E2%80%93Hawking_singularity_theorems

      Il a avancé une solution (une “métrique”) pour les équations de relativité d’Einstein utilisant les espaces de Minkowski.

      Il a aussi touché à d’autres sujets, toujours en physique et en topologie, avec beaucoup de succès. Je vous recommande la lecture de ses autres livres, qui sont fascinants. Dommage qu’il ait quelque peu gâché la soupe avec son livre sur le cerveau…

    • La puissance installé ne sera pas très élevé pour longtemps. Aujourd’hui, les cartes graphiques haut de gammes ont des puissances théorique de 2 teraflops. Il n’en faut pas des tonnes pour avoir une puissance de plusieurs teraflops.

      Il est vrai que cette puissance n’est pas exploitable facilement par tout les algorithme mais d’un autre coté, c’est le cas pour les clusters en général. Si un code se parallélisme bien sur un clusters, il y a toutes les chances qu’il se parralélise bien sur une carte graphique. Ces dernière resteront cependant inférieur lorsque viendra le temps d’exécuté un code avec beaucoup de condition. (branchement).

      Mais la plupart des simulations sont des calculs qui doivent être appliqués à de très grosses quantités de données et c’est la que les cartes graphiques performent le mieux.

      D’ailleurs ce n’est pas pour rien que les 2 principaux constructeur de microprocesseurs intègre les chips graphique directement au processeurs dans le but de les utilisés plus tard comme des unités de calculs additionnels. l’APU A8-3850 en est un bon exemple et a déjà une puissance de calcul non négligeable et il offre un rapport Flops/Watt très élevé. Il faudra cependant qu’OpenCL, l’API pour le calcul parallèle ouvert à tout les manufacturier soit plus massivement adopté et que les outils de développement soit plus mur. Mais nul doute que ceci se fera à court terme.

      Cray utilise d’ailleurs dans leur dernière version de leur supercalculateur un combo processeur – carte graphique. ils atteigne 3 teraflops par Lame, 70 terraflops par baie. Avec cette puissance, on dépasse le Cluster de l’ETS très rapidement.

      http://www.hardware.fr/news/11555/cray-xk6-amd-nvidia-50-petaflops.html

      Ensuite, pour les centre de donnés, l’idée de université de Laval de faire des centres de données en silo présente plusieurs avantages non négligeable.

      http://www.youtube.com/watch?v=1qyCH2G8epo&feature=player_embedded

    • @davidbourque Il y a plusieurs groupes de recherche qui ont développé des super-ordinateurs de pauvres basés sur des cartes graphiques. Cela fait le travail, mais la programmation est ardue car ces systèmes n’ont pas été conçu pour cela. Difficile d’échanger du code aussi.

    • @yvan_dutil

      Le problème n’est pas tellement la conception du système parce que aujourd’hui les unités de calculs des nouveau GPU sont conçu pour cela.

      Le problème provient principalement des outils de développement qui ne sont pas encore mature et aussi des développeurs qui n’ont pas tous les connaissances nécessaires pour bien les exploités.

      Il y a aussi beaucoup de codes qui ne pourront pas être exploités par un GPU. On pensera au code très sérialisé et le code contenant beaucoup de branchement. (N’oublions pas que les gpu actuels n’ont aucune prédiction de branchement contrairement au CPU.

      Mais un programmeur avertit avec un OpenCL mature pourra dirigé le code vers le GPU et/ou le CPU en fonction des taches à accomplir.

      Il n’a pas que les pauvres qui utilise les cartes graphiques. Le super-ordinateurs no-1 au top 500 utilise des cartes graphiques et 17 système du top 500 utilise des GPU pour calculer.

      Cette tendance n’ira pas à la baisse et d’ici 2-3 ans, la grande majorité des système inscrit au top 500 comptera sur des GPU ou des APU (processeur + carte graphique avec unités de calculs sous une même enveloppe) .

      EN plus, AMD, Nvidia et Intel travail sur divers procédés pour augmenté la performances multi-thread, multi-usage et multi-bramchement de leur unités de calculs.

      nous sommes qu’au balbutiement du GPU computing, mais cette vois nous amènera des performances bien supérieur au processeurs traditionnel et nous verrons exploser les puissances brutes des super-calculateur comme jamais au paravent. Bien au delà de la loi de Moore.

    • Merci beaucoup à tous ceux qui ont apprécié mon explication du boson de higgs!

      @hdufort

      Je n’ai pas lu ce livre de Roger Penrose mais il est effectivement risqué de s’aventurer dans ce genre de projet où la spéculation et les liens douteux font presque office de canevas (même si s’est fait en toute bonne foi). J’ai cependant accroché sur un détail dans votre commentaire: “information voyageant plus vite que la vitesse de la lumière?!”

      En fait, c’est possible grâce à la mécanique quantique. Le principe de base servant à illustrer ce phénomène se nomme effet EPR (ou paradoxe Einstein-Podolsky-Rosen). Si on prend, par exemple, un pion qui se désintègre en un électron et un positron. La conservation de la quantité de mouvent implique que les deux particules seront émises avec une vitesse égale dans des directions parfaitement opposées (180 degré) et une des deux possèdera un spin de +1/2 et l’autre un spin de -1/2 (de manière un peu simpliste on pourrait dire que l’électron tourne sur lui-même dans une sens et le positron tourne dans le sens contraire). Cependant, la mécanique quantique dit que tant que nous n’avons pas mesuré le spin de l’électron (ou du positron), les deux particules sont dans des états superposés, c’est à dire qu’elles ont à la fois un spin +1/2 et -1/2 avec une probabilité de mesurer un ou l’autre égale à 0,5.

      Supposons que nous attendons que les deux particules s’éloignent l’une de l’autre sur une très grande distance (une année lumières par exemple) et qu’on mesure le spin de l’électron, la superposition d’état sera détruite (un peu comme mon exemple de la position de la particule sur une bulle de savon lors d’un billet précédent). Donc, si on mesure +1/2 pour l’électron, le spin du positron prendra la valeur -1/2 instantanément et non après une année entière si l’information aurait eu à voyager entre l’électron et le positron à la vitesse de la lumière.

      Ce qui est ironique, c’est qu’Einstein a imaginé cette expérience de pensée afin de démontrer que la physique des particules ne peut être probabiliste (il n’y a jamais cru) et que comme il est impossible que l’information se propage plus vite que la vitesse de la lumière, l’électron avait nécessairement un spin +1/2 dès le départ de même que le positron qui a toujours eu un spin -1/2. Donc, que la superposition d’état n’existe pas et que la mécanique quantique est une théorie incomplète et qu’elle le restera tant qu’elle ne sera pas déterministe.

      Mais l’expérimentation a démontré le contraire et nous savons aujourd’hui que la superposition d’état existe bel et bien. Même que l’effet EPR est la base du principe d’intrication quantique qui est utilisé notamment en cryptographie quantique, en téléportation quantique et plus récemment en informatique quantique.

      Pour en revenir au sujet de ce billet, s’il fallait que cette dernière discipline mène à des applications concrètes et ultimement à l’ordinateur quantique, le superordinateur de l’Université McGills ferait office de montre calculatrice à côté!

    • Petite correction:

      “conservation de la quantité de mouvement” et non “de mouvent”. Désolé!

    • Pour en revenir à Penrose…

      En fait, j’hésitais à y revenir, en me disant: ‘on s’écarte du sujet’… jusqu’à ce que je me rende compte qu’au contraire, on est en plein dedans. Je m’explique :

      Mes réticences face à ‘Emperor’s New Mind’ vient du fait qu’il tente de démontrer que la science actuelle n’arrive pas à expliquer le phénomène de l’intelligence. Or, je venais à l’époque de terminer le livre ‘The Society Of Mind’ de Marvin Minsky (MIT)…. un chef d’oeuvre de vulgarisation scientifique qui explique de façon extrêment élégante comment un concept comme l’esprit peut naître d’un hardware comme le cerveau. (À chaudement recommander à ceux qui s’intéressent à ce sujet). Or, comment concilier la thèse de Penrose qui me dit ‘Ça s’explique pas’ avec ce que me présente Minsky (qui m’explique de manière convaincante que l’esprit s’explique scientifiquement).

      Le lien avec le sujet du blog, c’est que Minsky propose que la seule technique qui pourra éventuellement prétendre à bâtir des systèmes réellement intelligents sera de répliquer la structure du cerveau (humain et animal), c’est-à-dire les réseaux neuronaux. Des millirards de processeurs pourraient théoriquement simuler des milliards de neurones. Pour ce genre d’applications, les teraflops comptent moins que la quantité de floppeurs (processeurs-neurones)

    • @romeog,
      Il y a aussi des théories qui affirment que la conscience émerge d’une “boucle de rétroaction” dans le cerveau (hypothèse avancée par le très philosophique Hofstadter). Or, cette hypothèse sur la conscience s’est matérialisée lorsqu’on a identifié une structure dans le tronc cérébral, la “formation réticulaire”, qui semble être le siège de cette “boucle ascendante-descendante” de signaux. Cette activité cérébrale permettrait en particulier à l’humain de s’auto-observer en train de réfléchir et de développer des processus de pensée complexes (auto-observation, réflexion à plusieurs niveaux, conscience de soi, “projection” et planification, etc). Une fois la conscience possible, il faut ajouter la puissance neuronale pour assurer la capacité intellectuelle, ainsi que divers organes du cerveau pour le langage (qui est une capacité tout aussi complexe et interconnectée).

      Mon avis est que l’augmentation de la puissance de calcul des ordinateurs (et donc de leur capacité de simulation) devrait aussi être accompagnée d’un effort particulier pour simuler les systèmes qui peuvent s’auto-observer. L’un ne va pas sans l’autre. Aussi, pour obtenir une “créature virtuelle” vraiment intelligente, il doit y avoir une quantité impressionnante de structures préprogrammées et pré-câblées, comme dans le cerveau humain il semble y avoir des invariants au niveau du langage et des structures d’acquisition, d’analyse et d’assimilation des signaux (sens).

      La proposition de Minski s’insère probablement dans un cadre plus large; rien n’indique que l’intelligence puisse émerger d’une complexité non organisée.

    • @jaylowblow,
      Il reste que dans le texte de Penrose, l’idée d’information voyageant à la vitesse de la lumière n’est pas liée aux particules EPR, aux phénomènes de vitesse supérieure “apparente” (voir le rayonnement de Tcherenkov) ou à d’autre chose. Pour Penrose, l’esprit humain réagit plus vite que la vitesse de transmission du signal par les nerfs, DONC il doit “prévoir” l’avenir immédiat ou utiliser un effet quantique pour percevoir le long d’une ligne de temps “inversée”.

      Bon. Nous savons que dans les réactions nucléaires au coeur des étoiles impliquent des électrons qui semblent voyager “à rebours” pour satisfaire à l’avance le principe d’exclusion de Pauli, mais les théories de Penrose sur les microtubules “quasi mystiques” et leur raccourci quantique me semblent être plutôt… tirées par les cheveux.

    • ps:
      @jaylowblow,
      J’ai publié un article qui touche (indirectement) à l’enseignement des théories quantiques, dont les particules EPR:
      http://www.springerlink.com/content/fp56q4qwm7507l05/

      Le groupe de recherche de l’UdeM avait depuis longtemps identifié les possibilités liées aux particules EPR, en particulier dans la téléportation quantique (transmission en apparence plus rapide que la vitesse de la lumière). Des premiers prototypes ont été réalisés pour “téléporter” des bits sur quelques centaines de mètres­. Il reste beaucoup de travail!

    • @hudfort

      Je ne pas le bagage requis pour échanger avec vous.
      Mais je me disais seulement que le Temps, aussi évident qu’il puisse paraitre, pose bien des énigmes et reste un phénomène plutôt mystérieux quand on s’y attarde. Tout comme la conscience d’ailleurs.

      Bref, l’espace/temps dans lequel nous évoluons et la perception qu’on en a n’ont peut-être rien d’absolu en soi. Et la conscience et le temps sont peut-être + liés qu’on le croit.

      En d’autres mots, que l’esprit soit + rapide que la lumière est un non-sens si on croit que la conscience est un produit purement biologique. Par contre, si l’on croît que le cerveau est un processeur de conscience, alors là, il serait normal que l’esprit réagisse + vite que la transmission du signal par les nerfs…

    • @hdufort @romeog
      Il y aussi la théorie fascinante de Jaynes sur le “bicameralism”.
      Il y a plus 3000 ans, les deux hémispères du cerveaux ne travaillaient pas autant ensemble que de nos jours. Une émettait. L’autre recevait et obéissait. On était pas vraiement conscient.
      Le stress des migrations a fait tomber cette barrière et la plus grand interaction entre les deux hémisphères a fait se développer la conscience (probablement par la boucle de rétroaction).
      J’ai déja vu ce livre à la bibliothèque et finalement je ne l’avais pas lu. Dernièrement, Robert J. Sawyer, un auteur de science-fiction canadien a parlé de cette théorie dans une de ces histoires.
      http://en.wikipedia.org/wiki/Bicameral_mind

      Je vais surement le lire bientôt.

    • @gl000001,
      Merci beaucoup pour la référence. Je ne suis pas un grand fan de Sawyer, mais le cerveau humain m’intéresse au plus haut point.

    • @hdufort

      Ok, je vois que les réflexions de Penrose sur le cerveau sont plus “space” que je l’imaginais. Et en effet, les applications de l’intrication quantique n’en sont encore qu’à leur balbutiements.

      En passant, j’espère que vous aviez compris que mon explication de l’effet EPR ne vous était pas vraiment destiné étant donné que je me doutais bien que vous connaissiez déjà tous ça. Lorsque je me lance dans de grandes tirades comme celle-la, c’est parce que je trouve que le sujet est assez intéressant pour que ça vaille la peine de l’expliquer à ceux qui ne sont pas experts dans le domaine.

      @be-bop-a-lula

      En fait, le cerveau est un processeur de conscience purement biologique. Je ne veux pas faire comme Penrose et affirmer des choses dans un domaine que je ne maîtrise pas vraiment mais le cerveau n’est pas une grosse boule de nerfs entrelacés dans laquelle une pensée se transmet d’un point a à un point b. C’est plutôt un réseau extrêmement complexe de neurones qui interagissent en parallèle (comme romeog l’a écrit plus haut). Le nerf est quant à lui l’équivalent d’un câble qui transmet les signaux d’entré et sortie du cerveau. Si on se brule un doigt, nous saurons que nous nous sommes brûlé uniquement lorsque le cerveau aura reçu l’information par les nerfs et l’aura analysé, ce qui prend un certain temps. Par contre, si je décide de matérialiser une image dans ma tête, cela se fera beaucoup plus rapidement, car cette image n’a pas eu besoin de voyager par de long câbles (nerfs) avant d’apparaître dans mon esprit. Mais il y a tout de même un délai. L’erreur que fait Roger Penrose selon moi, est de croire que la pensée est instantanée alors que c’est faux. Nous n’avons conscience du résultat qu’une fois le calcul terminé. Le processus qui mène au résultat nous est imperceptible malgré qu’il prenne un certain temps à se concrétiser. Pour faire un parallèle avec l’informatique, nous ne voyons jamais dans notre tête un message du type “please wait while loading” même si c’est effectivement le cas pour toutes les actions que notre cerveau exécutes.

      Mais vous avez-raison de dire que la conscience et le temps sont plus liés qu’on le croit. Notre perception du temps est biologique et c’est une des facultés du cerveau qui m’a toujours fasciné. Des études ont démontré que certaines drogues hallucinogènes altèrent la perception du temps de manière impressionnante. Est-ce parce que les calculs cérébraux sont ralentis? Est-ce parce que “l’horloge” du cerveau est déréglée? Honnêtement, je n’en sais rien mais peut-être que d’autres qui s’y connaissent pourraient répondre à cette question?

    • Pour en revenir au supercalculateur, il est destiné à l’analyse des résultats au LHC. Ces calculs sont parallélisables pratiquement à 100%, ça fait très longtemps que les physiciens des hautes-énergies ont pris la voie du calcul parallèle. Chaque particule peut être analysée séparément et indépendemment des autres pour ensuite reconstruire l’événement à analyser. Les physiciens tireront donc le maximum de cette machine.

    Vous désirez commenter cet article?   Ouvrez une session  |  Inscrivez-vous

    publicité

  • Catégories

  • Blogues sur lapresse



    publicité





  • Calendrier

    septembre 2014
    D L Ma Me J V S
    « août    
     123456
    78910111213
    14151617181920
    21222324252627
    282930  
  • Archives

  • publicité