Follow by Email
Facebook
Twitter
LINKEDIN

Je relaie ici un article d’Olivier Dessibourg publié dans l’édition spéciale du 31.12. 2011 du journal suisse Le Temps, consacré à l’intelligence artificielle. Bien que vieux de presque deux ans, cet article offre à mon avis un regard juste et critique sur un sujet, le transhumanisme, dont l’actualité reste permanente malgré le peu d’information qui nous en parvient en Europe. Deux événements survenus après la publication de l’article ci-dessous sont cependant à relever afin de compléter le tableau brossé par l’auteur: le premier est la nomination de Ray Kurzweil, figure emblématique du mouvement transhumaniste, au poste d’ingénieur en chef de Google afin de faire du moteur de recherche la première intelligence artificielle de l’histoire. Le second est le déblocage par le FET flagship, fond européen pour la recherche et l’innovation scientifique, d’un milliard d’euros sur dix ans en faveur de l’Ecole Polytechnique Fédérale de Lausanne (EPFL, Suisse) et de son Blue Brain Project, dont le but est la création d’un cerveau synthétique…

Dessin original de Tom Tirabosco

Les robots devenus artificiellement beaucoup plus intelligents que l’homme prendront-ils le contrôle? Ce moment de basculement de l’humanité appelé «Singularité» est considéré tantôt comme de la science-fiction, tantôt comme une réalité possible. Dans la Silicon Valley, emblématique des avancées en robotique et en intelligence artificielle, l’idée fait entièrement partie du paysage scientifique, même chez les sceptiques. Grand reportage en Californie et dans des centres de recherche en Suisse

«En cette fin 2011, comme depuis toujours, nous avons un problème pour imaginer le futur!» Les lumières des spots effleurent le rideau bleu, devant lequel a été installé l’immense téléprompteur: sur une vitre inclinée se reflète l’image télévisuelle d’un homme aux cheveux gominés, la soixantaine, chemise orange et blazer kaki, le tout donnant l’impression qu’il est présent derrière le pupitre qui couvre l’appareil. Dans la salle, 35 personnes écoutent religieusement cet orateur, Ray Kurzweil. «Notre cerveau ne pense intuitivement qu’en termes linéaires, reprend-il. Car nous avons évolué ainsi: lorsque nous chassons ou évitons une voiture, nous estimons de manière ­linéaire l’endroit où se trouvera l’animal ou le véhicule quelques secondes plus tard. Ce mode de réflexion est gravé dans notre cortex.»

Pourtant, selon lui, le progrès se caractérise toujours de façon exponentielle: la courbe qui le décrit démarre doucement, puis décolle et file vers le ciel. Une tendance observée dans tous les domaines: en technologies (des milliards de gens ­possèdent un téléphone portable, contre une poignée il y a dix ans), en biologie (le coût du séquençage de l’ADN baisse presque d’un ordre de grandeur chaque deux ans) et surtout en informatique (selon la loi de Moore, la puissance des ordinateurs double tous les 18 mois).

■ L’humanité transformée

Et si ces ordinateurs deviennent de plus en plus performants, ils égaleront puis dépasseront un jour l’intelligence de l’homme. Il se peut alors qu’ils ne servent plus seulement à faire des calculs, mais qu’ils se mettent à réfléchir, à dialoguer, à apprécier l’art, à nourrir une conscience d’eux-mêmes. Ces machines dotées d’intelligence se mettront à se dupliquer, à développer encore leurs capacités «intellectuelles», sans intervention humaine. Peut-être d’ailleurs décideraient-elles de se passer des bipèdes encombrants qui peuplent la planète, les considérant au mieux comme de la matière première. Ou fusionnerons-nous avec elles, afin d’amener à la valeur de 1000 notre quotient intellectuel (celui d’Einstein était de 160) ou de télécharger le contenu de notre cerveau sur des mémoires électroniques pour vivre éternellement, cybernétiquement?

Quoi qu’il en soit, dès que ce temps viendra, dès que ce basculement s’opérera, la transformation que subira l’humanité sera si radicale qu’elle la changera de manière irréversible. «Elle nous permettra de transcender les limitations de notre cerveau et de notre corps», assène le conférencier. Cette transformation a un nom: la Singularité.

Science-fiction? Nouvelle religion apocalyptique ou rêve irresponsable d’une équipe de geeks pour certains. D’autres défendent ce scénario inéluctable avec le plus grand sérieux. Parmi eux, en première ligne, Raymond Kurzweil, l’homme du téléprompteur, qui en a même fait le cœur de son livre Humanité 2.0, la bible du changement (traduit de The Singularity is near, paru en 2005 ). Inventeur surdoué – adolescent, il a remporté en 1965 un concours télévisé avec un morceau de piano composé par un ordinateur – qualifié de «génie frénétique» par le Wall Street Journal, entrepreneur à succès, futurologue écouté jusqu’à la Maison-Blanche, il prédit, lui, l’arrivée de cette singularité pour 2045.

Cette vision n’est pourtant pas la sienne. En 1965 déjà, soit durant la première flambée des idées d’intelligence artificielle allumées notamment par Alan Turing, le statisticien anglais Irving J. Good évoque une «explosion d’intelligence» des machines. Et c’est en 1993 que le mathématicien et auteur de science-fiction Vernor Vinge popularise le terme dans son article The coming technological singularity: how to survive in the post-human era. Il y annonce: «Dans 30 ans, nous aurons les moyens technologiques de créer une intelligence surhumaine. Peu après, l’ère humaine prendra fin!»

Le mot «Singularité» lui-même est emprunté au vocabulaire de l’astrophysique. Il se réfère à un horizon de l’espace-temps, par exemple l’intérieur d’un trou noir, au-delà duquel les lois de la physique ne sont plus applicables. De même, la singularité technologique induira des modifications telles sur la civilisation que l’homme ne peut ni les appréhender ni les prévoir.

Qu’on y croie ou pas, cette idée a diffusé jusque dans les esprits les plus dubitatifs de la Silicon Valley, en Californie, où elle a désormais imbibé le tissu intellectuel dans lequel ont été façonnées les avancées les plus fascinantes en informatique et en intelligence artificielle.

■ A l’école de la futurologie

Le concept est même devenu vendeur. En 2009, Ray Kurzweil a fondé, avec l’entrepreneur Peter Diamandis, la Singularity University, avec le soutien de Google et de l’Agence spatiale américaine. C’est sur un des campus de celle-ci, le NASA AMES Research Park à Moffet Field, près de San Francisco, qu’affluent des entrepreneurs, investisseurs et autres chefs d’entreprise, pour participer à des séminaires de plusieurs jours, inédits et à prix d’or (jusqu’à 25 000 dollars).

Dans les édifices à l’influence hispanique, entourés par des palmiers et des parcelles de gazon tondu aux ciseaux, l’atmosphère est décontractée, mais studieuse. «L’objectif, dit Peter Diamandis, est de présenter aux participants de quelle manière cette idée de croissance exponentielle des technologies, que Ray Kurzweil appelle la «loi du retour accéléré», va révolutionner l’économie dans les décennies à venir. Et cela dans des domaines émergents aussi variés que les nanotechnologies, la biomédecine, la biologie de synthèse, et bien sûr la robotique intelligente.» De la Singularité elle-même, il sera peu fait mention explicitement, les intervenants basant leur exposé surtout sur les technologies existantes ou en voie de développement. L’occasion aussi de faire le point, sur le terrain, entre la réalité, le futur proche, et les assertions plus fantasmagoriques, à l’aune des nombreuses avancées réalisées en 2011.

■ Partout autour de nous

«L’intelligence artificielle est déjà partout autour de nous», résume Neil Jacobstein, responsable de ce domaine à la Singularity University. Des exemples de ses formes primitives, il est vrai, ne manquent pas. Des systèmes boursiers aux logiciels qui commandent les feux de circulation, des algorithmes gèrent en coulisses nombre de dispositifs de notre vie courante. Sur le champ de bataille, en Afghanistan, plus de 2000 robots combattent aux côtés des soldats. A domicile, de plus en plus d’appareils électroménagers, équipés de micropuces, enregistrent les préférences des utilisateurs. Beaucoup étant connectés au réseau Wi-Fi, ils peuvent être commandés à distance, formant l’«Internet des objets». Dans la Silicon Valley, il se murmure que Google a ouvert il y a peu un laboratoire secret, baptisé GoogleX, pour creuser cette idée. Interrogé à ce sujet, Sebastian Thrun, un de ses responsables, s’est braqué avant de s’en aller.

Ce scientifique allemand, aussi responsable du laboratoire d’intelligence artificielle (IA) à l’Université Stanford, est considéré comme un des cinq meilleurs experts au monde, pour avoir développé la GoogleCar, une voiture remplie de capteurs, qui roule sans conducteur à San Francisco – même sur la célèbre rue en serpentin de Lombard Street. Elle a déjà effectué plus de 320 000 km sans causer d’accident. Preuve que les systèmes d’intelligence artificielle ne se cantonnent plus aux ordinateurs, mais équipent des machines qui entrent en interaction avec les humains. Voire les remplacent: une équipe de l’Université galloise Aberystwyth a mis au point un «robot scientifique», capable d’émettre une hypothèse de recherche, de la vérifier expérimentalement, et d’en tirer des conclusions (lire les encadrés).

«Cette capacité d’interaction des robots va prendre une dimension énorme dans nos sociétés vieillissantes, estime Dan Barry, ancien astronaute de la NASA qui s’est reconverti dans la robotique. D’autant que certains parviennent à simuler des émotions, de l’empathie…» Et lorsqu’on parle d’interactions, poursuit Neil Jacobstein, «comment ne pas évoquer les systèmes reconnaissant les voix humaines, aptes à répondre à des questions, comme Siri, l’«assistant virtuel» du téléphone iPhone 4S». Ou Watson.

En février 2011, c e superordinateur créé par la société IBM a battu les champions humains de Jeopardy!, un jeu de questions-réponses . Equipé de 2500 microprocesseurs œuvrant en parallèle, chacun capable d’effectuer 33 milliards d’opérations par seconde, il consomme une puissance de 85 000 watts, soit de quoi alimenter un village – contre 20 pour le cerveau humain, ce qu’il faut pour allumer une ampoule. «Or il répondait plus rapidement que les deux candidats, après avoir décrypté la question lue à haute voie par le présentateur, puis trouvé des éléments de réponses dans sa base de données », dit Joe Jasinski, ingénieur au T.J. Watson ­Research Center d’IBM, de passage à Zurich. L’objectif est maintenant de développer un système similaire, qui pourrait aider les médecins à ­poser un diagnostic, en répondant à leurs questions.

D’aucuns n’hésitent pas à dire que tous ces objets ne sont en rien la concrétisation d’une intelligence au sens où l’homme l’entend; ces automates ne feraient que mener à bien les tâches spécifiques pour lesquels ils ont été programmés. «L’argument est un peu court, rétorque Ray Kurzweil. Dès 1990, on disait qu’on aurait réalisé un système d’IA lorsque celui-ci serait capable de battre un humain aux échecs. Cet exploit a été réalisé en 1997 par l’ordinateur Deep Blue d’IBM. L’objectif ultime était ensuite de vaincre à un jeu de culture générale.» L’étape vient d’être franchie par Watson…

De même, «si vous aviez dit à quelqu’un en 1978 qu’il disposerait bientôt d’une machine lui fournissant tout le savoir du monde sur un sujet en tapant quelques mots, il l’aurait considéré comme dotée d’une intelligence artificielle», souligne le cofondateur de Google Larry Page dans la revue Wired

Comme probablement Google, Watson, loin de fonctionner avec un simple logiciel puisant dans des données gravées dans sa mémoire électronique, «repose sur un condensé d’une centaine de techniques d’IA, dont des algorithmes sophistiqués qui accordent des probabilités de pertinence aux réponses avancées», dit Joe Jasinski. «Watson est une machine très sophistiquée, mais qui ne sait pas jouer à un autre jeu», analyse, lui, Noah Goodman.

Ce psychologue de l’Université Stanford n’est qu’un des nombreux scientifiques estimant que l’on est encore loin de développer des entités très flexibles dans leurs tâches. Et qui soient surtout dotées de qualités – encore mal définies concrètement – que l’on dit propres à l’homme, comme le libre arbitre, la conscience de soi, la capacité d’abstraction, ou celle d’apprendre par généralisation à partir d’un cas unique. Une pique qu’admet Neil Jacobstein, avant de relancer: «A l’aune de l’évolution humaine, qui a pris des milliers d’années, ce saut d’évolution là est proche; il aura lieu au plus dans quelques décennies. En voyant Watson, il n’est pas déraisonnable de penser que nous aurons bientôt des machines extraordinairement intelligentes.»

«Le problème, c’est qu’on ne sait pas comment leur inculquer ce sens du raisonnement conceptuel abstrait dont dispose l’homme», résume Nick Bostrom. Ce philosophe n’est de loin pas un sceptique du domaine, puisqu’il dirige le Future of Humanity Institute à l’Université d’Oxford. Selon lui, pour espérer franchir ce pas, des percées doivent être réalisées dans un ou plusieurs des domaines suivants: la reconstruction électronique d’un cerveau, la simulation de son fonctionnement sur ordinateur, ou le développement d’algorithmes de «pensée informatique» inédits. Dans ces trois champs, les travaux avancent.

■ Citadelle de l’informatique

San Jose, métropole étalée au fond de la baie de San Francisco. Dans les collines, IBM a construit son centre de recherche d’Almaden. Une citadelle où l’on pénètre après avoir montré patte blanche au vigile. «Nous sommes au milieu des prairies sèches, on voit des rennes, on entend des crotales», glisse le porte-parole Ari Entin, en nous guidant dans les couloirs de béton. C’est là que travaille Dharmendra Modha, l’un des scientifiques les plus médiatisés ces derniers mois. Fin août, son équipe a reconstruit une bribe de cerveau. Ou du moins son équivalent en silicium: «Nous avons fabriqué une pièce essentielle d’une architecture neuromorphique modulaire.» Traduction?

Les ordinateurs sont aujour­d’hui construits selon l’organigramme suivant: des éléments stockent l’information (les transistors), d’autres les traitent (les microprocesseurs), et entre ces entités, des circuits (le «bus») font circuler les données. Ce mode de fonctionnement, dit de «von Neumann» du nom du pionnier de l’informatique, est très énergivore – comme l’a encore montré l’exemple de Watson – et peu efficace du fait du trafic qu’il génère.

A l’inverse, le cerveau, lui, utilise une architecture décentralisée: les neurones servent à la fois de vecteurs et de réceptacles d’informations, au travers des connexions entre eux (synapses), siège supposé de la mémoire. «Tous les neurones travaillent en parallèle, ce qui rend ce type d’architecture plus efficiente, et qui explique aussi la plasticité du cerveau», résume Ton Engbersen, collègue du Dr Modha au centre de recherche d’IBM à Rüschlikon (ZH)C’est justement ce qu’ont pu reproduire les chercheurs américains.

Un des prototypes de micropuce en silicium contient 256 «nœuds électroniques» fonctionnant en parallèle et de manière distribuée, les neurones, et ils sont connectés à 65 536 modules de mémoire synaptique. L’ensemble consomme moins d’énergie. Un résultat impressionnant, mais qui reste bien en deçà des 100 milliards de neurones que compte le cerveau humain… Néanmoins, un ordinateur utilisant cette micropuce a pu apprendre à jouer à Pong, un jeu de tennis virtuel primitif. Reste à prouver que des milliers de ces entités peuvent être assemblées pour fonctionner efficacement ensemble.

Ce projet, nommé SyNAPSE, peut-être le plus avancé du genre, est soutenu à hauteur de 41 millions de dollars par la Darpa, l’agence militaire américaine de recherches. Les savants d’IBM admettent qu’ils sont encore loin de «reconstruire» un cerveau, tant son fonctionnement est mal connu, mais se disent contents d’avoir ouvert la porte sur une architecture informatique totalement inédite, loin du modèle «von Neumann».

■ Simuler le cerveau

La deuxième voie évoquée par Nick Bostrom pour comprendre le cerveau est celle de sa simulation. C’est l’objectif que poursuit, entre autres, l’équipe du Blue Brain Project à l’EPF de Lausanne (lire «Comprendre le cerveau humain»). Cette démarche a commencé par l’étude aussi détaillée que possible du «connectome», l’ensemble des connexions de cette fantastique «boîte noire» cérébrale. Depuis peu, les techniques d’imagerie médicale, dont la résonance magnétique fonctionnelle (IRMf) ou la microscopie électronique, ont fait d’énormes progrès. A tel point que des chercheurs de l’Université Texas A&M ont pu cartographier le réseau de neurones du cerveau avec une précision de 160 milliardièmes de mètre (nanomètres).

Dès les années 1970 a été établi le connectome d’un organisme vivant, C. elegans , poursuit Nick Bostrom. Ce ver possède 302 neurones, connectés par 9000 synapses. «Malgré cela, nous restons aujourd’hui incapables de simuler sur un ordinateur le fonctionnement de son réseau de neurones, car nous savons encore très mal reproduire les différents types de signaux qui le font osciller», électriques ou chimiques, locaux ou plus globaux. Ce qui fait craindre au chercheur qu’une simulation complète du cerveau humain ne reste lointaine, même si des avancées ont été réalisées. Telle la reproduction du connectome général du macaque, toujours par l’équipe d’IBM, qui a esquissé 6602 «autoroutes d’informations» entre 383 régions du cerveau de ce singe.

La plupart des spécialistes sont ainsi d’accord sur un point: comme un ordinateur ne fonctionne pas sans logiciel, il ne sert pas à grand-chose d’imaginer reproduire artificiellement l’architecture d’un cerveau humain sans tenter de comprendre le «code neural» qui le fait évoluer, à savoir le programme, le paquet de règles et d’«algorithmes biologiques», qui commandent aux neurones et transforment leurs interactions en perceptions, en souvenirs furtifs ou permanents, en significations, en intentions, etc. «Et là, il est difficile d’affirmer que les recherches avancent de manière exponentielle, comme le prétend Ray Kurzweil», assène Paul Allen, cofondateur de Microsoft, dans un article paru dans la Technology Review .

■ Apprendre le langage

Noah Goodman aborde justement ce problème par la troisième lorgnette avancée par Nick Bostrom, celle d’une approche purement théorique, mathématique. Sur le paisible campus de l’Université Stanford, il nous reçoit dans son bureau sous les toits d’un bâtiment de pierre ocre, où le vent fait claquer les persiennes. Du sol au plafond, l’un des murs blancs est couvert de formules, symboles, schémas. Le psychologue, chevelure bouclée noire et humide tombant sur un col chinois, est un des fers de lance d’une classe de scientifiques qui développent des langages d’apprentissage probabilistes. Des codes qui pourraient permettre aux machines de développer une forme supérieure d’intelligence, en suivant des règles qui donnent du sens aux informations.

Un exemple, classique? «Si l’on a les deux données suivantes: «un oiseau peut voler» et «une autruche est un oiseau», un simple ordinateur va conclure qu’une autruche peut voler. Mais si son logiciel peut acquérir davantage d’informations sur les autruches, et découvrir leur poids, il va accorder une probabilité plus faible à l’info selon laquelle «une autruche peut voler». Au final, toutes les probabilités attribuées à diverses informations similaires – ici la capacité de différents oiseaux à voler – représentent toutes les distinctions conceptuelles que les premiers chercheurs en intelligence artificielle devaient coder à la main dans leur programme. Là, le système apprend par lui-même, un peu comme l’homme emmagasine des concepts mais les révise au fil de sa vie. Avec les mêmes informations de base, deux programmes probabilistes peuvent livrer des résultats différents.»

La réflexion probabiliste est donc un élément essentiel dans l’écriture des codes de base des systèmes d’IA du futur, mais pas le seul. Noah Goodman y adjoint d’une part ce qu’il nomme en anglais compositionality: «La pensée humaine est productive. Nous pouvons imaginer des quantités de choses auxquelles nous n’avions pas pensé avant. Et même comprendre des idées qui n’ont vraiment aucun sens. Cela s’explique par la syntaxe de notre langage, qui permet de faire des phrases qui ont du sens avec des mots qui ont différents sens.» Et Neil Jacobstein d’abonder: «Si je vous dis que «telle équipe de football a écrasé telle autre», l’homme comprend qu’il s’agit d’une large victoire à un jeu. La machine, elle, y verra probablement une destruction physique. Car pour l’heure, ces logiciels ont encore du mal à comprendre les concepts généraux qui lient des éléments a priori disparates. Toutefois, on fait de plus en plus de progrès dans ce domaine.» Pour preuve, à nouveau, Watson, qui a «réfléchi» avec ce genre d’algorithmes: le superordinateur a répondu à nombre de questions correctement, mais s’est aussi bêtement trompé sur d’autres, montrant ainsi ses limites.

A la Carnegie Mellon University de Pittsburgh (Etats-Unis), des chercheurs ont créé NELL (pour Never Ending Learning Language). Il s’agit d’un ordinateur qui, depuis fin 2010, lit Internet et apprend automatiquement des faits en les inférant à partir de mots qu’il repère dans diverses pages, puis en les classant par catégories. Par exemple: «San Francisco est une ville» ou «les tournesols sont des plantes». En janvier 2012, il devrait atteindre le million de tels faits inscrits dans sa mémoire, avisent ses concepteurs.

«C’est une initiative très intéressante, juge Noah Goodman. Mais cela ne suffit pas. L’homme apprend aussi grâce aux contacts sensoriels avec son environnement. C’est à mon avis indispensable.» Mais là aussi, d’immenses progrès sont réalisés avec des robots qui, justement, parviennent à apprendre à travers leur sens, l’ouïe et la vue artificielle bien sûr, mais aussi l’odorat voire surtout le toucher (lire ci-dessus).

La troisième composante indispensable, pour Noah Goodman, est la «générativité»: «Ce facteur décrit la manière d’appréhender une masse d’informations. Une machine fonctionne par discrimination, en inférant un output à partir d’un input. L’homme, lui, organise son savoir par paquets, par distributions. Cette connaissance permet de générer des données pertinentes sans qu’il y ait forcément inférence entre deux informations. Observez à quel point les enfants apprennent des généralités à partir d’exemples isolés!»

Le psychologue en est convaincu: on touchera au but de l’intelligence artificielle dite «générale» lorsqu’on parviendra à fondre ces trois concepts – probabilités, compositionalité et générativité – dans un programme guidant une machine. «Quand y arrivera-t-on? Dans une trentaine d’années. Pour l’heure, c’est difficile. Peu de gens s’y attellent, et les savoirs nécessaires pour avancer proviennent de divers domaines des sciences, difficiles à maîtriser par une seule personne.»

■ Emergence d’intelligence

D’autres vont plus loin, dans la même veine. Ils estiment que regrouper dans une seule machine, par exemple dotée des nouvelles micropuces d’IBM, toutes les capacités développées unilatéralement pour les robots (reconnaissance faciale, vocale, déplacements, etc.), et lier le tout avec un langage d’apprentissage probabiliste permettra de faire émerger – à l’image de Frankenstein sur sa table de laboratoire – une certaine conscience, ou pour le moins la superintelligence tant attendue. «Si vous atteignez un certain niveau de complexité, alors apparaît la conscience», assure Ray Kurzweil dans son livre. C’est la stratégie que suit le consortium virtuel OpenCog qui, à travers Internet, a pour but de créer un kit de composants logiciels gratuits d’utilisation, destinés à donner naissance à une telle intelligence artificielle.

«L’idée de l’émergence spontanée est un scénario. Mais pour l’heure seulement un scénario par défaut, tant que personne n’a établi une théorie générale de l’intelligence», commente Michael Anissimov, jeune trentenaire et l’un des responsables du Singularity Institute. Cette institution, cofondée par Ray Kurzweil, regroupe des penseurs en intelligence artificielle étudiant les conditions qui définiront l’avènement des machines plus intelligentes que l’homme, la Singularité donc; ils se réunissent chaque automne lors d’un sommet pour faire le point, dans une suite de shows mêlant réalité scientifique et futurisme décidé. Dans son récent plan stratégique, cet institut s’est donné pour objectif d’«assurer que la Singularité aura des retours positifs et bénéfiques pour la société».

Le Singularity Institute possède des bureaux au centre-ville de San Francisco, mais ses membres passent beaucoup de temps dans une banale maison en bois des faubourgs de Berkeley, de l’autre côté de la baie, non loin de la fameuse université, au cœur d’un quartier résidentiel typique des Etats-Unis. Semblant sortir du lit, Michael Anissimov nous accueille à l’heure du rendez-vous, en fin d’après-midi, en short bleu, T-shirt blanc et sandalettes en plastique. Dans le logis, un bazar digne d’une colocation estudiantine. Sur les étagères, une collection d’ouvrages sur l’IA, les statistiques, les théories de la décision, enserrant la bible de Ray Kurzweil. Avec une tasse de café délavé à la main, son esprit, pourtant, s’avère brillant.

■ Symbiose «bio» et «silico»

«A mon avis, cette superintelligence ne naîtra pas spontanément dans une machine. Elle sera plutôt générée par un cerveau augmenté», lance Michael Anissimov. Car un des domaines d’étude de son institut est aussi celui de la symbiose entre le «bio» et le «silico», entre du matériel cérébral et des composants électroniques (lire «Connecter son cerveau à un ordinateur»). Moult expériences permettent déjà de lire les zones qui s’allument dans le cortex et d’exploiter ces données, pour guider un véhiculeLes neuroscientifiques parviennent aussi à soigner des affections neurologiques en glissant des électrodes dans le cerveau. Mais la majorité reconnaissent qu’on est encore très loin de pouvoir télécharger sa mémoire sur des micropuces.

«Cela poserait d’ailleurs des questions intéressantes, ironisait David Chalmers, philosophe à l’Université d’Arizona,lors du Singularity Summit. Car si l’on imagine que je puisse remplacer chacun de mes neurones, l’un après l’autre, par une puce, au final, ma conscience se serait-elle aussi déplacée dans ce lot de circuits électroniques?»

Michael Anissimov, lui, mise sur une autre technique récente: l’optogénétique. Elle permet de commander le cerveau avec de la lumière, à travers une fibre optique, après avoir génétiquement modifié les neurones pour les rendre photosensibles. L’optogénétique a fourni des preuves époustouflantes de son fonctionnement sur des souris (LT du 25.01.2011). «On peut imaginer que cette technique serve d’interface entre le cerveau humain et un ordinateur, et permette au premier de recourir à la phénoménale puissance de calcul du second pour résoudre des problèmes trop complexes sinon», explique le visionnaire.

L’amplification artificielle de l’intelligence humaine comme étincelle à la création d’une superintelligence robotisée: c’est aussi l’un des scénarios envisagés par Vernor Vinge, le «père» de la Singularité. Le mathématicien de l’Université de San Diego relève, au téléphone: «Il y a un paradoxe: on sentira peut-être poindre l’avènement de cette intelligence supérieure. Mais saura-t-on seulement si et quand elle se sera développée? Car une fois ce seuil franchi, il y aura des choses que nous ne pourrons plus comprendre. De même, on peut expliquer le fonctionnement d’une TV à un humain, pas à un chien…»

■ Superintelligence

L’événement, pas anodin, pourrait entraîner une cascade de conséquences, prédisent certains: «Une fois qu’une machine aura atteint le niveau d’intelligence de l’homme, il y a de fortes chances qu’elle développe une forme d’intelligence beaucoup plus pertinente encore, dit Nick Bostrom, le philosophe d’Oxford. Et cela en quelques heures, au plus en quelques jours.»

Noah Goodman est loin d’adhérer à cette idée: «Cela fait des décennies que des gens essaient de créer quelque chose de plus intelligent qu’eux, sans y parvenir. Dès lors, pourquoi une entité aussi futée que l’homme en générerait-elle automatiquement une autre, plus intelligente encore? L’affirmer est avant tout une question de foi.»

On touche là au cœur du débat entre ceux que guide un réalisme forgé au bon sens (d’aujourd’hui?) et les «singularitariens», comme les adeptes de la théorie de la Singularité aiment parfois à s’appeler. «Les machines vont peut-être développer des formes d’intelligence qui leur seront propres. De même, une fois que les frères Wright eurent compris les lois principales de l’aérodynamique, il n’y a pas eu besoin de recréer le battement d’ailes d’un pigeon pour faire voler un avion», rétorque Michael Anissimov.

Devant ces perspectives vertigineuses d’un futur mécanisé, rien de tel que de se pencher sur le passé pour évaluer ce que l’avenir figuré jadis est devenu aujourd’hui. C’est exactement ce que fait Yoav Shoham, un des professeurs d’intelligence artificielle de l’Université Stanford. Pour trouver son bureau, il faut traverser un hall où s’ébattent des dizaines d’appareils, dont le célèbre petit androïde japonais Asimo, ou PR2, l’un des robots autonomes les plus perfectionnés au monde, fabriqué par l’équipe de Willow Garage, l’une de ces start-up qui éclosent comme des pâquerettes dans la Silicon Valley.

«L’histoire nous montre que, oui, nous construisons des machines de plus en plus perfectionnées, dit-il. Celles-ci peuvent faire des dégâts si elles sont utilisées à mauvais escient. De manière générale, toutes ces technologies auront un impact énorme sur notre société, à la manière du téléphone portable. Mais strictement rien, à ce stade, ne pointe vers une ère où les machines «prendront le contrôle», comme on l’entend parfois.» Son chef à Stanford, Sebastian Thrun, abonde: «Tous ces outils dotés d’intelligence artificielle vont surtout nous rendre plus puissants, plus efficaces.» Et conduire à la suppression de milliers d’emplois, vite remplacés par des robots? «Souvenez-vous de l’arrivée de la mécanisation dans l’agriculture, ou de la révolution industrielle… L’humanité n’a pas perdu au change. Et cette tendance va continuer, il faut rester optimiste. L’humain ne sera jamais obsolète.»

Le problème, rétorque-t-on, c’est justement que les machines ne pensent pas comme les humains, mais de manière – disons – plus obtuse. «Les machines sont programmées pour effectuer des tâches ciblées, explique Nick Bostrom. Imaginons qu’une tâche soit de fabriquer… des agrafes. On peut déduire que le robot va considérer que tous les objets de son entourage, y compris l’homme, constituent potentiellement de la matière brute pour fabriquer ses agrafes. Rien n’empêche alors de penser qu’un tel automate, extrêmement intelligent, développe toutes les stratégies pour atteindre l’objectif qu’on lui a fixé. Autrement dit qu’il ait peu de considération pour l’homme…»

Michael Anissimov, lui, fait appel à des références cinématographiques: «Dans 2001, l’Odyssée de l’espace , l’ordinateur HAL n’avait pas pour intention de se débarrasser des occupants du vaisseau spatial, comme on le dit souvent. HAL était programmé pour que la mission soit remplie de succès. Et il a conclu que cet objectif serait mieux atteint s’il se passait de l’homme…»

■ Pouvoir tirer la prise

Parmi ceux qui cogitent sur ces questions, les plus impertinents imaginent même comment ces robots acquerraient une capacité de se dupliquer. Ray Kurzweil, toujours dans son téléprompteur: «Le marché des imprimantes en trois dimensions (3D) est en plein essor. Bientôt, il sera possible à chacun de commander le plan d’un objet sur Internet, et de l’imprimer en 3D dans son salon. Aujourd’hui, ces imprimantes en 3D sont capables de reproduire 70% des pièces qui les composent, dans différentes matières. On peut donc imaginer que des machines superintelligentes détournent cette faculté à leur profit.»

Nick Bostrom se veut plus fin: «Il n’est pas exclu qu’une superintelligence, dépourvue de mobilité ou d’un organe préhensile, parvienne subtilement à convaincre un être humain, ou un autre robot, d’agir à sa place, contre due récompense…»

Au Singularity Institute, on se targue de se soucier de cette question de la plus haute importance: «Il faut réfléchir aujourd’hui déjà à se prémunir contre le fait que des machines intelligentes tournent mal», souligne Michael Anissimov. Neil Jacobstein: «Si nous développons de tels robots, il faudra qu’on leur inculque le «respect de la vie» sous toutes ses formes – comme le souhaitait le philosophe Albert Schweitzer – et donc de notre civilisation.» Même Ton Engbersen, à IBM Rüschlikon, estime qu’il faut inclure dans les ordinateurs qui seront équipés de l’architecture neuromorphique «un module de police», pour les empêcher de prendre trop de libertés. «Mais nous ne savons pas encore comment faire.»

Une autre solution ne serait-elle pas, plus candidement, de s’assurer de pouvoir «tirer la prise»? «Croyez bien que si l’homme postule cette éventualité, une superintelligence y aura pensé aussi, et que l’une des premières choses qu’elle fera sera d’élaborer une stratégie pour y ­pallier», répond Nick Bostrom.

«Qui plus est, on ne peut déjà plus tirer la prise, avise Frédéric Kaplan, ingénieur de l’EPF de Lausanne, sans catastrophisme, puisqu’il ne croit pas à l’éclosion de machines toutes-puissantes. Les virus informatiques qui se propagent sur le Web ne peuvent plus être éradiqués; il faudrait éteindre voire détruire l’entier du parc informatique mondial. Cela montre à quel point nous sommes déjà interdépendants des systèmes artificiels plus ou moins intelligents qui nous entourent.»

A l’EPFL, ce chercheur s’est beaucoup intéressé à la question sous l’angle sociologique. Il est même arrivé à la conclusion que les humains sont les «organes sexuels des machines»: «Les hommes fabriquent en grande quantité des objets mécaniques ou électroniques qui leur sont utiles, mais abandonnent vite ceux qui montrent leurs limites.» Comme si les lois de la sélection naturelle s’appliquaient aussi au monde de la cybernétique.

■ Irresponsables prophéties

Tout en trouvant l’idée réductionniste, et en pourfendant les «visions catastrophistes irresponsables» des singularitariens, Yoav Shoham estime aussi que réfléchir aux liens évidents ou plus inavoués qui unissent l’homme et la machine peut être utile: «Cela va nous en apprendre beaucoup sur nous-mêmes, nos valeurs, et sur les traits qui seraient propres à l’homme, comme la conscience, le libre arbitre, etc. Ce que je veux montrer à mes étudiants, c’est qu’on peut être plus charitable avec les machines.»

Prenez l’idée de «souffrance», poursuit-il. «Selon notre échelle, on s’accorde pour dire qu’un homme ou un chien souffre. Mais plus on remonte le fil de la complexité des êtres vivants, plus notre jugement se floute: dira-t-on qu’une amibe souffre? De même, personne n’avancera qu’un thermostat «intelligent», qui enregistre vos préférences, est conscient. Votre ordinateur, probablement pas non plus. Concernant Watson maintenant: en est-on si certain? On dit souvent que ce genre de machine n’est qu’une simulation de la réalité. Or parfois, ce qui semble être un modèle EST la réalité. Car, crûment dit, notre cerveau n’est aussi qu’un «instrument» qui traite diverses informations.»

Réalité et science-fiction, où poser la frontière? «La science-fiction a longtemps été l’un des seuls champs dans lequel des idées sur la convergence entre les intelligences humaine et artificielle ont pu être largement explorées, dit Nick Bostrom. Récemment, des chercheurs académiques, comme nous, y ont accordé leur attention avec sérieux. Cette révolution numérique et l’avènement d’une intelligence artificielle générale, qui surviendront avec certitude, seront plus importants que les révolutions agricole et industrielle. Se poser sérieusement la question des risques et des bénéfices pour l’humanité est crucial. Plus on le fait tôt, plus on aura de temps pour permettre à l’homme d’y réfléchir et de se préparer.»

Olivier Dessibourg, Le Temps, Vendredi 30.12.2011

Follow by Email
Facebook
Twitter
LINKEDIN