Préfaces et postfaces de Gérard Klein

Iain M. Banks : Excession

(Excession, 1996)

roman de Science-Fiction dans l'univers de la Culture

préface de Gérard Klein, 2002

par ailleurs :

« Le logicisme engendre l'illusion qu'on pourrait étendre de manière continue la caractéristique logique à la science de l'univers, lui associer en quelque sorte un modèle universel où coexisteraient entités physiques et entités mathématiques. »

Claude Imbert (article Gottlob Frege de l'Encyclopædia universalis)

Avec la série de la Culture qui comprend désormais cinq titres, une Forme de guerre, l'Homme des jeux, l'Usage des armes, Excession et le Sens du vent,(1) Iain M. Banks, l'un des plus doués des écrivains britanniques de sa génération, a renouvelé le thème de la société galactique. Il succède ainsi entre autres à Isaac Asimov avec le Cycle des Fondations, à Frank Herbert avec celui de Dune, à Cordwainer Smith et ses Seigneurs de l'Instrumentalité et à Ursula K. Le Guin avec la Ligue de tous les mondes devenant par la suite l'Œcumène. Mais là où les deux premiers avaient projeté dans un avenir lointain des empires plutôt réactionnaires sur des modèles inspirés de l'antique, le troisième une néo-féodalité technocratique et où la dernière avait maintenu des monarchies et des aristocraties, Banks imagine une civilisation progressiste, libérale voire anarchiste, tolérante et suprêmement hédoniste, qui est de surcroît une véritable société d'abondance. Il a du même coup élaboré une des principales utopies, voire la seule, de la fin du xxe siècle .(2)

Dans chacun des volets indépendants de ce cycle, Banks met en valeur un aspect de la Culture. Une Forme de guerre présente la Culture, son service Contact et sa sulfureuse section Circonstances Spéciales, spécialiste des coups tordus. L'Homme des jeux illustre la dimension ludique de la Culture et les ambiguïtés de ses relations avec d'autres sociétés qu'elle cherche à convertir à ses valeurs. L'Usage des armes reprend la même idée sur une note plus martiale. Excession enfin donne la vedette aux Intelligences Artificielles qui sont les véritables gestionnaires de la Culture.

Ce qui peut être l'occasion de revenir sur la notion d'Intelligence Artificielle dans la Science-Fiction et dans la technologie. Je ne considérerai ici les robots que sous cet angle, en faisant abstraction de leur aspect humanoïde.

Curieusement, dans les œuvres de Science-Fiction, l'Intelligence Artificielle paraît faire davantage écho à la mythologie et à la théologie qu'à la technologie, en tout cas au désir ou à la crainte plus qu'à un savoir, à des sentiments plus qu'à des arguments.

Pour ne retenir que quelques exemples canoniques, dans la fameuse pièce de Karel Čapek, R.U.R.,(3) qui introduit le terme de robot, ceux-ci sont des esclaves industriellement produits, lointains successeurs de la créature de Frankenstein, qui, comme elle, finissent évidemment par se révolter. On retrouve les mêmes esclaves intelligents et conscients dans le livre de Robert Silverberg, la Tour de verre.(4) Dans le curieux roman de Jack Williamson, les Humanoïdes,(5) les robots apparaissent comme des sortes d'anges gardiens de l'Humanité, qui, pour la bonne raison de la protéger en toute circonstance, finissent par la châtrer au moins moralement en lui interdisant toute prise de risque. Indication que retient Isaac Asimov en la déplaçant sur les robots dans ses nombreuses nouvelles où il les théorise comme des humains dotés d'un énorme surmoi (résumé dans les fameuses Trois Lois de la Robotique) et par là eux-mêmes châtrés. Hal, l'ordinateur assassin de 2001 : l'odyssée de l'espace, imaginé et mis en scène en 1968 par Arthur C. Clarke et Stanley Kubrick, est lui aussi une sorte d'ange protecteur qu'une aporie transforme en démon. Dans son roman le Problème de Turing, écrit en collaboration avec Harry Harrison, Marvin Minsky, qui fut un des théoriciens de l'intelligence artificielle, se contente de prendre ses désirs pour des réalités. Iain M. Banks lui-même, dans la série de la Culture, présente ses I.A., du drone au Mental capable de gérer à ses moments perdus une orbitale, comme des anges tutélaires susceptibles de se métamorphoser en furies, c'est selon : ils sont certes incapables de mentir, mais côté casuistique, ils ont de la ressource. Enfin, Lester Del Rey dans "Helen O'Loy"(6) et Brian W. Aldiss dans "des Jouets pour l'été",(7) proposent des simulacres d'humains, destinés à satisfaire des besoins affectifs des humains, et qui y réussissent si bien qu'ils finissent par les ressentir. Ces écrivains ont, sans hésiter, choisi de représenter ce que certains spécialistes nomment l'I.A. forte, qui implique l'également voire le dépassement, par une machine, de toutes les capacités intellectuelles d'un être humain.

En bref, les Intelligences Artificielles de la Science-Fiction sont soit des humains améliorés et suprêmement moraux, soit des anges ou de petites divinités qui, chez Frank Herbert dans Dune(8) ou chez Dan Simmons dans Hypérion et ses suites, peuvent virer au démoniaque, se rebeller selon un vieux cliché contre leur créateur et entreprendre de l'annihiler. Leur inspiration est d'ordre logique, juridique et morale. Elle tourne autour du pouvoir et des pouvoirs d'entités presque omniscientes. La problématique même de la création de l'Intelligence Artificielle est curieusement absente de ces œuvres à l'exception notable d'un roman de Frank Herbert, Destination : vide. Il convient toutefois de faire une place à part à Greg Egan, informaticien lui-même, qui, dans la Cité des permutants, ouvre des perspectives radicales en abolissant la distinction entre univers réel et univers virtuel.

Est-ce parce que les exemples concrets et même les précédents théoriques accessibles feraient défaut dans la constitution de ces images de la science dont cette littérature se nourrit, ou bien la raison en serait-elle plus profonde et tiendrait-elle à l'indéfinition même du concept qui demeurerait dans son fond sans véritable contenu, ni pratique, ni même programmatique, hors de prophétiques exhortations ? On ne saurait faire grief à des auteurs de fiction de faire appel à des sources théologiques ou angélologiques et de projeter des désirs d'ordre et de justice ou des craintes de dépassement radical. Mais il n'en est pas de même pour l'abondante littérature d'information scientifique sur le sujet qui va d'ouvrages techniques pointus à d'incertaines anticipations journalistiques. Elle prêche presque tout entière dans le même sens : l'Intelligence Artificielle est pour demain et elle dépassera l'intelligence humaine. Elle est profondément contestable.(9)

Dès le départ, soit vers le milieu des années 1950, les dés étaient pipés. L'expression même d'Intelligence Artificielle entendue comme à terme équivalente ou supérieure à l'intelligence humaine, procédait d'une qualification mensongère pour une prétention insoutenable. On comprend bien qu'elle a été forgée pour frapper les imaginations, en particulier celles des bailleurs de fonds. Elle relève donc d'une imposture intellectuelle et au pire d'une escroquerie financière. Qui ne se souvient de la fameuse promesse de ses inventeurs de fournir en quelques mois des systèmes fiables de traduction automatique ? Un demi-siècle plus tard, on les attend toujours. Certes des traducteurs automatiques existent et fonctionnent pour des textes entièrement codés comme les bulletins météorologiques et boursiers. Mais aucun ne peut traduire de façon convaincante des textes simples dès qu'ils relèvent d'un langage naturel et non d'un code fermé,(10) sans parler des chefs-d'œuvre de la littérature. À l'époque, cette prétention pouvait sembler fondée à partir des résultats obtenus par les premiers ordinateurs durant la guerre dans le décryptage des codes de transmissions militaires.(11) Mais ce décryptage, si difficile qu'il soit, n'a rien à voir avec la traduction.

Bien entendu, cette objection sur les termes ne vaudrait pas si la ou les disciplines correspondantes avaient été baptisées “contrôle de systèmes complexes” ou “traitement massif de données”. Des progrès impressionnants ont été accomplis dans ces domaines, permettant de simuler certaines fonctions partielles du système nerveux animal ou humain, mais en aucun cas dans le domaine de l'intelligence, terme au demeurant d'une redoutable ambiguïté. Ces progrès relèvent en gros de ce que les spécialistes précités appellent l'I.A. faible.

Si la querelle était purement terminologique, on pourrait s'en tenir là. Mais la prétention abusive s'est maintenue durant tout le demi-siècle, même si de bons spécialistes de la question en ont rabattu sur leurs ambitions algorithmiques, et elle s'est enrichie d'autres abus de langage mystificateurs. Celui par exemple qui consiste ainsi à parler de “langages informatiques” alors qu'il ne s'agit que de codes ou mieux de série d'instructions, de “machines symboliques” alors qu'il ne s'agit que de calculateurs, d'“acteurs intelligents” alors qu'il ne s'agit que d'automates. Le vocabulaire qui sert à décrire machines et programmes, en particulier lorsqu'il s'agit de robots, témoigne souvent d'un anthropomorphisme parfois naïf et inconscient, souvent délibéré, qui leur suppose des “aptitudes”, des “comportements”, des “stratégies” et des “intentions”.

Voici quelques exemples de prétentions exagérément abusives : dans le Monde,(12) Hugo de Garis, chercheur au Japon et en Belgique, annonce froidement : « Il faut prendre conscience que des machines massivement intelligentes apparaîtront dans cinquante ans… Aujourd'hui, il y a au moins trois chercheurs réputés en robotique qui pensent la même chose que moi, Hans Moravec et Ray Kurzweil aux États-Unis, et Kevin Warwick en Grande-Bretagne. ». Et de Garis de prédire la probable menace de ses “artilects” pour l'Humanité qu'ils chercheront à détruire s'ils l'estiment nuisible !(13) Kurzweil en effet, dans le même journal,(14) avait annoncé : « L'ordinateur rattrapera le cerveau humain… L'évolution a créé l'intelligence humaine. Aujourd'hui, l'intelligence humaine façonne des machines intelligentes. Demain, ces mêmes machines, sans l'intervention de l'Homme, donneront naissance à des technologies qui dépasseront leur propre intelligence. ».

Il serait aisé mais fastidieux de multiplier de telles citations dont la grande presse, même réputée sérieuse, est évidemment plus riche que les annales des congrès scientifiques.

Certes, Hugo de Garis est aimablement traité de « fou furieux » par « un des meilleurs chercheurs français en intelligence artificielle » dans la page même qui lui est consacrée. Mais Kurzweil, dont les réalisations (scanner, reconnaissance vocale) sont plus significatives, ne se montre guère moins enthousiaste. Ont-ils lu trop de Science-Fiction, voire seulement de la Science-Fiction, sur le sujet, ou bien y a-t-il effectivement dans l'état de la science des principes tels qu'ils permettent de prévoir de pareils développements, comme par exemple la relativité restreinte impliquait dès 1905 au moins la possibilité théorique de l'arme nucléaire ?

Ma conviction est que ces principes n'existent pas,(15) du moins pas encore. Le seul du reste qui soit invoqué et par de Garis et par Kurzweil ainsi que par de nombreux prosélytes de l'I.A. est un principe de quantité : demain, les ordinateurs seront plus puissants (ce dont je ne doute pas) ; donc, ils seront intelligents (ce qui reste pour le moins à démontrer).

Je voudrais prévenir ici une erreur d'interprétation. Je ne suggère en aucune manière que l'intelligence humaine (ou animale) procède d'un principe métaphysique qui nous demeurerait en toute hypothèse impénétrable. Je conçois bien, sans en avoir de certitude particulière, le corps humain et son cerveau, support présumé de l'intelligence, comme une “machine”. J'admets qu'il serait théoriquement possible d'en construire une réplique en disposant convenablement les atomes nécessaires et de l'animer sans qu'il soit besoin de faire appel à une “essence divine”. La difficulté extrême et peut-être insurmontable de l'entreprise tiendrait à la prise en compte d'un contexte sur laquelle je m'expliquerai plus loin.

En revanche, la prétention à la création d'une intelligence artificielle au sens de l'I.A. forte suppose implicitement ou explicitement l'adhésion à un scientisme sans limite. Par scientisme, je n'entends pas ici sa version naïve du xixe siècle selon laquelle les progrès de la science parviendraient à résoudre les problèmes humains, mais bien la foi selon laquelle il est à la portée de la science de dévoiler, dans un temps fini, les mécanismes fondamentaux de l'univers, de nous dire ce qu'il en est vraiment et absolument derrière les apparences, de savoir ce qu'il y a derrière les choses et, en ce qui concerne la prétention ici dénoncée, de ramener la totalité du réel à une combinatoire épuisable. Pour les dévots de ce scientisme, le réel ultime nous est accessible. Cette prétention est d'ordinaire réservée aux religions qui l'appuient en général sur des révélations sur lesquelles je ne me prononcerai pas. Mais prétendre pouvoir révéler exactement ce qu'est le réel dans ses moindres détails par les moyens de la science revient à la constituer en religion ultime, ce que contredit toute son histoire qui peut être résumée comme une succession sans fin de théories et de pratiques. On a affaire ici au mythe d'une raison qui épuiserait le réel alors que la raison se construit peu à peu à travers des réalités, au contact jamais immédiat du réel, dans l'espace de la rationalité, c'est-à-dire de tous les possibles de la raison, dont il n'est pas sûr qu'il épuise lui-même le réel.

Quel est le lien entre cette prétention et l'Intelligence Artificielle ? Il pourrait s'analyser ainsi : toute machine programmable fonctionne sur un mode conditionnel, sur le principe du “si…, alors…”. Quelle que soit la complexité du programme, il n'est constitué que d'une succession éventuellement considérable mais finie de telles propositions conditionnelles. Le fait d'introduire des boucles rétroactives voire autoréférentielles ou des variables aléatoires ne change rien à l'affaire. On peut tout à fait bien représenter son support comme une gigantesque batterie d'interrupteurs, ce qui lui ôte une grande partie de son mystère. Théoriquement, comme l'a montré Turing, la machine programmable n'a aucun besoin d'être électronique. L'ordinateur mécanique de Charles Babbage avec des millions de rouages pourrait convenir. Il est du reste intéressant de constater que les êtres humains ont toujours eu tendance à emprunter à des mécanismes compliqués, ou qui semblaient tels, des métaphores destinées à représenter leur propre fonctionnement intellectuel. Pour La Mettrie, c'étaient des rouages, empruntés aux automates et aux horloges. De nos jours, les microprocesseurs font l'affaire. Mais la démarche est la même. Tout algorithme, si impressionnant qu'il soit au regard du profane, ne fait pourtant que décrire une série de basculements d'interrupteurs. Toute machine discrète, porteuse d'un programme numérique, est ainsi faite.

L'assemblage de propositions conditionnelles, quelle que soit son étendue, fait que les réactions d'une machine “intelligente” dépendront complètement et absolument des paramètres qui y auront été configurés ou qui lui seront fournis, en bref d'une description codée du monde. Autrement dit, si un capteur constate (ou mesure) un état du monde extérieur prévu par les concepteurs, il déclenchera un premier interrupteur et ainsi de suite. Dans tous ses “comportements”, une telle machine est entièrement déterminée par l'état du monde extérieur tel qu'il est perçu à travers les filtres dont l'ont dotée ses créateurs et qui dépendent de leurs propres connaissances et capacités. Les raffinements de la machine et de son programme peuvent masquer cette situation mais en dernière instance, elle ne se comporte pas autrement qu'un automatisme déclenchant des essuie-glace lorsqu'il pleut sur une voiture. Le régulateur à boules de Watt ou le thermostat d'un réfrigérateur ne sont pas fondamentalement différents bien qu'ils fonctionnent en analogique et non pas sur une base discontinue, discrète.

Certes, je ne conteste pas qu'il soit possible de construire à partir de systèmes conditionnels des machines capables de gravir un escalier, même irrégulier, de jouer du piano ou de danser avec des claquettes, de voler dans les airs, de se mouvoir dans l'eau et de se déplacer en terrain difficile sur un monde lointain. De telles machines existent. Mais ce ne sont que des automates extrêmement élaborés qui ne se distinguent pas fondamentalement des automates de Vaucanson et qui suscitent le même étonnement béat.(16) Ces automates ne fonctionnent que dans des environnements limités, soigneusement décrits par leurs concepteurs. Par environnement, on doit entendre ici aussi bien un milieu physique qu'un ensemble d'informations codées comme celles qui circulent sur l'internet ou celles qui décrivent un plateau de jeu.

De façon générale, un automate ne peut se déplacer dans un environnement physique que si l'on a correctement et complètement décrit celui-ci. Cette description n'implique pas que tous les détails figurent sur une “carte”, mais bien que toutes les catégories pertinentes de détails et toutes les relations utiles entre elles aient été recensées dans son programme ou dans les informations qui lui seront ultérieurement fournies. Or déjà, la pertinence et l'utilité ne sont pas aisément définissables a priori et in extenso.

Une Intelligence Artificielle universelle supposerait donc que soient pris en compte tous les paramètres pertinents de tous les environnements, c'est-à-dire, en dernière instance, tous les mécanismes de l'univers, que celui-ci soit intégralement décodé et descriptible en codes utilisables par les machines,(17) d'où l'accusation de scientisme au moins implicite proférée plus haut. À défaut, l'automate ne pourrait se déplacer (au sens le plus large) et œuvrer que dans les limites de l'univers précodé par ses programmeurs. J'entends bien qu'il pourrait préciser et enrichir cet univers précodé à l'aide de capteurs et qu'il n'est pas nécessaire de lui en fournir une description détaillée pourvu qu'on lui indique des principes exhaustifs de cet univers, ce qui ne fait que reculer le problème.

Mais je demeure très sceptique quant à la possibilité pour un automate, quel qu'il soit, d'induire ou de déduire d'autres règles de fonctionnement de l'univers que celles, forcément incomplètes, qui lui auraient été fournies. Cela signifierait que les modes de fonctionnement de la créativité humaine (et même animale) seraient déchiffrés (ce qui est une autre prétention scientiste) ou encore qu'on saurait faire faire à des automates ce qu'on ne sait pas soi-même comment on le fait. En tout cas, je souhaite à un tel automate et à ses concepteurs bonne chance dans l'univers social.

Les êtres humains eux-mêmes n'en sont pas là et ne disposeront sans doute jamais de cette connaissance ultime de l'univers réel, ce qui leur interdit précisément d'en faire profiter leurs machines. Mais leur intelligence naturelle leur autorise une remarquable faculté d'adaptation et de découverte qui fait défaut aux automates les plus perfectionnés : ils décodent progressivement leur univers, comme on y reviendra. Étendre le champ des environnements qui sont accessibles à ces automates ne les rend pas “intelligents” pour autant. La vieille prétention des tenants de l'Intelligence Artificielle d'apprendre le monde à leurs machines n'a pas donné plus de résultats jusqu'ici que celle de la traduction universelle. Au mieux, il s'agirait de leur enfourner le savoir des encyclopédies dont le potentiel, en termes de survie, est assez douteux.

En d'autres termes, il est en principe possible d'intégrer aux machines et à leurs algorithmes les connaissances déjà acquises par les humains, et on n'en est pas là. Mais il n'a jamais été montré qu'il était possible ou même concevable d'aller au-delà, c'est-à-dire de voir les machines acquérir des connaissances pratiques ou des concepts théoriques qui ne soient pas strictement les conséquences, en quelque sorte tautologiques, de celles déjà intégrées. C'est cette capacité qui me semble le propre de l'intelligence. Les machines ne font, strictement, que ce qu'on leur dit de faire.

Elles le font parfois de façon suffisamment spectaculaire pour entraîner certaines confusions mystificatrices dont sont victimes non seulement les profanes mais parfois les spécialistes eux-mêmes. Je voudrais en donner quelques exemples triviaux.

Le premier consiste à qualifier les ordinateurs de “machines symboliques” parce qu'ils permettraient, à un regard humain, de manipuler des symboles, et à leur prêter ainsi la capacité de pensée symbolique des êtres humains. C'est jouer sur les mots.(18) Un symbole n'est pas du tout la même chose lorsqu'il s'agit d'une notation (la lettre grecque π par exemple), d'une figuration concrète résumant une histoire complexe (un drapeau), ou pis encore d'un système diffus de représentations impliquant d'incertaines et multiples interprétations (ainsi la symbolique du tarot, de la psychologie jungienne ou de la plupart des religions). Les ordinateurs ne manipulent pas les symboles-notations mais permettent de les manipuler, ce qui n'est pas la même chose. Ce sont des calculateurs. Il est possible de faire correspondre à n'importe quel symbole au premier sens un nombre et de se livrer sur de tels nombres à toutes les opérations arithmétiques et logiques que l'on voudra. Lorsque je tape des mots sur mon ordinateur, ce sont des chiffres qu'il reçoit et il a l'obligeance de les faire apparaître en toutes lettres sur mon écran. Mais il ne “connaît” que des nombres.

Un deuxième cas d'escroquerie intellectuelle concerne le fameux test de Turing. Le coupable n'en est du reste pas Turing lui-même dont j'ai relu maintes fois le texte,(19) mais ses innombrables commentateurs dont beaucoup laissent sur l'impression de ne l'avoir jamais rencontré. Je tiens le texte de Turing, "les Ordinateurs et l'intelligence", pour une plaisanterie swiftienne dont l'auteur vend la mèche dès le titre du premier paragraphe : "le Jeu de l'imitation". La question que traite Turing n'est nullement “les machines peuvent-elles penser ?” mais “les machines peuvent-elles faire semblant de penser ?”. Turing évoque un simulacre du sujet parlant.(20) Pris au pied de la lettre comme ont fait trop de gens, le texte de Turing signifierait que si l'illusionniste est assez habile, la magie mérite le statut de science.(21) En tout cas, prétendre que le “test” de Turing définit une machine pensante relève purement et simplement de la supercherie intellectuelle. Prendre au sérieux la proposition swiftienne de Turing implique un doute sur l'intelligence de tout locuteur qui ne soit pas soi-même, et introduit à un solipsisme qui ne le cède en rien à celui du fameux évêque de Cloyne, George Berkeley. La question qu'éluderait Turing dans une perspective aussi restreinte serait de savoir si une I.A. peut dire : pourquoi ? Non pas le “pourquoi ?” phatique d'une réponse formelle, mais le pourquoi introduisant à une question inédite chez son auteur et chez son interlocuteur.

Un troisième mode d'abus de confiance repose sur les jeux logiques dont le jeu d'échecs, et les performances spectaculaires atteintes par certaines machines et programmes.(22) Certains, surtout dans la grande presse, en infèrent que ces machines sont aussi “intelligentes” que les plus doués des humains dans cet art particulier et qu'elles ne vont pas tarder à les surpasser. Les échecs se jouent sur un nombre limité de cases avec un nombre limité de pièces qui obéissent à un nombre limité de règles. Le nombre de situations possibles est donc fini et calculable même s'il est vraiment très grand. Le jeu d'échecs constitue un univers clos et défini, où les mouvements peuvent être décrits sous forme d'algorithmes. Il en résulte qu'un ordinateur suffisamment puissant peut théoriquement calculer la meilleure série de positions possibles et, s'il a l'avantage du trait, gagner à coup sûr. Mais il ne joue pas. Et comme aucun ordinateur n'est présentement capable de calculer l'ensemble des parties possibles, on lui adjoint différentes heuristiques dont la plupart reviennent à exploiter l'expérience de parties historiques sous la forme : si telle configuration se présente, alors il est (probablement) préférable de jouer de telle façon. En d'autres termes, le grand maître affronté à une telle machine joue non seulement contre une capacité de calcul considérable entièrement programmée par des humains, mais encore contre une collectivité de grands maîtres à travers une bibliothèque de leurs meilleures parties. Il ne fait guère de doute que le jour est proche où aucun humain ne pourra battre une machine dédiée. Cela ne prouvera qu'une chose qu'on sait depuis longtemps, c'est que le jeu d'échecs relève du calculable. Peut-être dans l'avenir, de grands maîtres s'affronteront-ils, assistés par des ordinateurs, ce qui nous promet de pures joies. Mais la performance de l'ordinateur dans le jeu d'échecs n'établit en aucune manière qu'il soit intelligent.

Une dernière forme d'abus de langage, voire de confiance, qui frise la mystification, consiste à prétendre que le cerveau (humain ou animal) est un ordinateur et qu'à la base de la pensée réside un calcul. Il est sous-entendu, et parfois affirmé, que si le cerveau est un ordinateur, et puisque le cerveau est intelligent, alors un ordinateur suffisamment puissant peut être intelligent.(23) Le problème de ce syllogisme vicieux est que si l'on entend par ordinateur une machine du type Turing-von Neumann, alors, pour tout ce qu'on en sait aujourd'hui, le cerveau humain (et animal) n'est pas, dans son architecture générale, et non plus dans celle de ses composants, les neurones, une telle machine ; ou que tout au moins, dans une formulation plus restrictive, rien ne donne à penser qu'il soit une machine de ce type.

De même, dans l'état actuel des connaissances, on n'a jamais rien trouvé, dans le cerveau ni dans les neurones qui le composent, qui soit l'équivalent du code binaire ou d'un langage de programmation, éléments indispensables, sous une forme ou sous une autre, à la conception et au fonctionnement d'un calculateur discret comme une machine de Turing.(24) On a recensé en revanche, outre des phénomènes électriques, des dizaines et peut-être des centaines de neuro-transmetteurs chimiques qui pointent vers une autre direction, celle de l'analogique. Il n'est pas toujours nécessaire en effet, pour résoudre des problèmes mathématiquement difficiles, de passer par le calcul algorithmique et par un langage logique. Des solutions efficaces peuvent souvent être obtenues à l'aide de dispositifs analogiques simples ; ainsi, l'architecte Gaudí déterminait les courbes de la Sagrada Familia, la cathédrale inachevée de Barcelone, en lestant un tissu extensible en des endroits choisis. Cela étant, un calculateur analogique reste une machine conditionnelle. Le problème des calculateurs analogiques, c'est qu'ils sont en général conçus pour une application particulière et qu'ils ne sont guère susceptibles de généralisations ni de décomposition comme l'est un calculateur discret en éléments ET, OU et NON (AND, OR, NOT). Si chaque cerveau est un vaste calculateur analogique sculpté par l'évolution et par son histoire propre, il est possible qu'il n'ait pas d'autre modèle que lui-même.(25)

On ne peut toutefois pas exclure par principe l'existence d'un code sous-jacent. Le seul exemple de code de type informatique connu en biologie est le code génétique qui comprend quatre lettres. Mais peut-être la génétique est-elle dans la vie le domaine le plus étroitement conditionnel ? J'y reviendrai.

Et si, par aventure, on finissait par découvrir que le cerveau est un ordinateur, il est vraisemblable qu'il serait d'un type très particulier, additionnant sur le modèle bricolé de l'évolution plusieurs systèmes disparates faisant une large place aux sentiments et aux émotions.(26)

Si, comme je le propose, on s'abstient, faute de savoir suffisant, de qualifier les êtres vivants de machines conditionnelles et donc d'admettre que les ordinateurs puissent les modéliser et reproduire toutes leurs capacités, quel statut au moins provisoire peut-on leur conférer ?

Les êtres vivants et en particulier les êtres humains sont, à mon point de vue qui est celui de l'acceptation d'une ignorance, des entités contextuelles. Une entité contextuelle n'a pas besoin de disposer d'une représentation complète du milieu dans lequel elle vit pour répondre sur un mode conditionnel à ses défis. Elle entretient avec ce milieu une relation efficace qui lui permet précisément de survivre. Elle est constituée d'une telle manière qu'elle fonctionne dans son contexte. Comme aiment à dire les Anglo-Saxons, la preuve du gâteau, c'est de le manger. Les entités contextuelles survivent et évoluent dans leur contexte. Si leurs réponses à leur environnement s'étaient montrées inadéquates, elles auraient disparu et nous en particulier ne serions jamais apparus avec nos questions oiseuses.

Le contexte d'une telle entité ne doit pas être confondu avec son milieu mais doit être pensé comme une interaction qui modifie à la fois l'entité et son milieu. Ce contexte procède à la fois de l'environnement et de l'état interne de l'entité, ainsi et surtout que de la capacité de celle-ci à modifier son état interne de façon à conserver sa capacité de modifier son état interne en fonction des contraintes exercées par l'extérieur. Ce contexte s'établit et se modifie à l'interface entre l'entité et le milieu. Autant dire qu'il change à peu près constamment. Il n'est pas deux contextes identiques.

Ce que je trouve fascinant, c'est que les formes les plus simples de vie paraissent au moins réagir de la sorte à tout leur contexte, et non pas seulement à des variations très locales d'un milieu. Ce contexte ne définit donc pas une frontière mais un échange rigoureusement singulier. Pour une entité consciente, il fait écho à la réflexion d'Élie Faure : « Si je connaissais les frontières de l'objet et du sujet, la curiosité du monde s'éteindrait en moi. ».(27) Ce que nos sciences explorent, précisément, c'est notre contexte et non pas un réel inaccessible contrairement à ce qui, du côté des scientistes de l'I.A. forte, est trop souvent entendu.

Un aspect remarquable de l'interaction contextuelle tient à la pertinence des perceptions. Contrairement à une impression spontanée, nous, et avec nous tous les êtres vivants, ne percevons que très peu de choses de notre environnement par rapport à ce que nous sommes physiquement équipés pour en percevoir, en fait, le moins de choses nécessaires dans une situation donnée. Ce très peu de choses, qui doit être variable selon les circonstances, constitue notre univers spécifique, notre Umwelt. Sinon notre système nerveux, notre système de traitement des informations, serait aussitôt saturé et réagirait beaucoup trop lentement aux stimulations externes, voire internes. Il vaut mieux percevoir la nourriture ou un partenaire sexuel avant un concurrent, et le prédateur avant qu'il ne vous avale. Toute action ou réaction implique un tri sévère des informations pertinentes et donc un filtre. Et puisque la pertinence doit être adaptée à la diversité des situations, il faut aussi un filtre des filtres, un système de sélection des pertinences. C'est une difficulté très importante, déjà évoquée, que connaissent bien les spécialistes sérieux de l'I.A. Or cette adéquation du filtre à l'action implique dès la définition du filtre, un projet, une intentionnalité. Dans la pertinence de la perception, il y a de l'intuition, presque de la prospective. Bien entendu au cours de l'évolution, les rétroactions se sont bouclées : les porteurs de filtres inadéquats ne se sont pas reproduits bien longtemps tandis que les lignées équipées de filtres adéquats n'ont cessé de les affiner. Si bien qu'il serait plus exact de dire que l'intuition et la démarche prospective telles que nous les entendons sont les aboutissements provisoirement ultimes du perfectionnement des filtres de la perception.

Bien entendu, il n'est pas exclu que les entités contextuelles soient en dernière analyse des machines conditionnelles : les virus pour leur part ressemblent assez à de telles pures machines moléculaires. Mais dans l'état actuel des choses, nous n'en savons strictement rien. Et c'est le second versant du scientisme de l'I.A. forte que de prétendre soit que nous en sommes déjà certains, soit que nous le découvrirons à brève échéance et que nous saurons alors réellement et absolument, dans le moindre détail, comment fonctionnent les êtres vivants de façon à pouvoir non seulement imiter mais bien modéliser et reproduire leurs comportements. La prétention abusive de l'I.A., c'est aussi de faire comme si on savait. Simulacre de simulation.

Ce que marque la distinction entre machines conditionnelles et entités contextuelles, c'est une ignorance de notre part, peut-être provisoire mais dans l'espace de laquelle pourrait aussi venir se loger une découverte profondément originale. En tout cas, une dimension importante des entités contextuelles, c'est qu'elles sont par essence évolutives, que leur contexte n'a jamais cessé de changer. Ce qui a deux conséquences importantes ici.

La première, c'est qu'une entité contextuelle est peut-être indissociable, ou plutôt inextricable, de l'histoire qui l'a produite. Dans ce cas, aucune analyse fine ne parviendrait à l'épuiser. Et la question, évoquée plus haut, de la reproduction à la molécule près d'une telle entité et par exemple d'un corps humain, aboutirait soit à la reproduction d'une copie d'un autre corps déjà existant, à la fabrication d'un super-clone, doté de la même expérience, des mêmes souvenirs, soit à une impasse. Il n'y aurait en effet pas d'autres plans (au sens architectural) des êtres humains (et plus généralement des êtres vivants) que ceux définis par l'interaction entre leurs gènes et le contexte particulier d'expression de ces gènes, interaction par hypothèse unique. Les spéculations sur l'I.A. impliquent d'une certaine manière qu'il y ait un plan général du cerveau humain (ou animal),(28) que ce plan puisse être reproduit sur une machine de Turing puis être alimenté en données adéquates. L'existence d'un tel plan semble aux auteurs de ces spéculations tout à fait naturelle, sur le modèle de celui d'un objet technologique, voiture, ordinateur, immeuble. Il les conduit à supposer qu'en gros tous les cerveaux sont identiques et que principalement ce sont les informations fournies qui les distinguent, ce qui est bien le cas pour les ordinateurs et leurs programmes. L'existence de grandes structures dans le cerveau, objectivables et à peu près similaires d'un individu à l'autre, les conforte dans cette idée.

Mais absolument rien n'indique qu'elle reste valable au niveau le plus fin. Pour emprunter une analogie sommaire au domaine de l'urbanisme auquel la notion de plan doit beaucoup dans tous les sens du terme, il n'existe pas deux villes dont les plans soient identiques parce qu'elles sont toutes le produit d'une histoire singulière, et cela même si de grandes structures fonctionnelles sont identifiables et localisables, places, marchés, rues, édifices religieux et publics. C'est même la raison pour laquelle les villes artificielles, rationnelles, fonctionnent mal ou ne fonctionnent jamais.

Or s'il n'existe pas de plan fin du cerveau en général, sa modélisation en tant que structure intelligente, son report sur un autre support et sa reproduction en quelque sorte industrielle demeurent impossibles. Au surplus, “support” et “programmes” y seraient indissociablement confondus.(29)

Même l'approche plus humble et apparemment plus prometteuse de la “vie artificielle” ne permet pas d'échapper à cette difficulté qui est peut-être bien une aporie. On sait que le projet de la “vie artificielle” consiste à concevoir de petits automates dont le niveau d'intelligence serait celui d'un lombric ou d'une fourmi. Il peut s'exécuter soit dans le domaine du réel à travers des machines, soit dans un espace purement informatique. Dans un cas comme dans l'autre, des “mutations” aléatoires des logiciels de commande assurent une sorte d'évolution. Dans le premier, il est déjà apparu extraordinairement difficile de produire des petits robots autonomes qui manifestent la résistance et l'adaptabilité des animaux primitifs susdits. Le second cas appelle l'objection déjà signalée d'un univers entièrement codé. Quoi qu'il en soit, une telle évolution, à supposer qu'elle aboutisse à un résultat intéressant, risquerait de demeurer indéchiffrable : le programme issu d'une histoire particulière demeurerait opaque, faute, entre autres difficultés, d'être décompilable c'est-à-dire traduit en instructions intelligibles et recombinables. En d'autres termes, on saurait qu'on aurait engendré de l'intelligence mais on ne saurait pas comment elle fonctionne à un niveau fin.

L'intelligence serait une propriété émergente de la matière à travers une histoire.

La seconde conséquence de la propriété évolutive des entités contextuelles, c'est qu'elles sont adaptées à un monde changeant, débordant leur expérience passée et actuelle. Ne me demandez pas comment elles font, je n'en sais rien. Bien entendu, des mutations aléatoires et la sélection naturelle permettent de comprendre bien des choses quant à l'accession de la matière à la sphère contextuelle puis à l'intelligence proprement dite, de même que leur prolongement, la sélection neuronale. Mais sans cette capacité des entités contextuelles d'excéder sans cesse les exigences immédiates de leur environnement, elles auraient disparu depuis longtemps. Au stade provisoirement ultime de l'intelligence, c'est-à-dire l'intelligence humaine, cela se traduit par une qualité intéressante : l'intelligence humaine cherche d'une part à codifier son environnement, à le décrire comme un jeu fini de lois précises, ce qui est le travail de la science moderne. Mais dès que l'expérience remet en cause un tel système codifié, elle se montre capable d'en élaborer un nouveau. Les humains parviennent à s'échapper d'un système formel pour en inventer un nouveau plus adéquat à leur contexte.

Tout l'effort de la science consiste à définir l'univers comme un jeu d'instructions. Et toute son histoire montre que cette tâche n'est jamais achevée, qu'un modèle de jeu d'instructions succède à un précédent. À proprement parler, les Intelligences Humaines ne découvrent pas des propriétés de l'univers mais des propriétés de leur contexte qu'elles-mêmes et leurs prothèses rendent changeant. C'est précisément la prétention des tenants de l'I.A. forte de poser qu'un jeu d'instructions défini suffit à l'intelligence ou encore qu'il sera possible de définir le jeu d'instructions ultime qui caractérise l'univers. Or l'intelligence ne consiste pas seulement à appliquer un nombre fini de règles bien codifiées.

L'expérience des sciences les plus exactes milite en sens inverse. À la fin du xixe siècle, la mécanique classique a pu sembler enfermer l'univers dans un jeu d'instructions codifié complété dès 1905 par la relativité restreinte ;(30) quelques décennies plus tard, la physique quantique venait radicalement subvertir ce code. Dans le domaine logico-mathématique, les travaux de Gottlob Frege puis le programme de David Hilbert avaient pour ambition de donner une assise logique absolue aux mathématiques ou du moins à l'arithmétique ; les résultats de Bertrand Russel puis de Kurt Gödel vinrent ruiner irrévocablement cette prétention. L'intelligence permet d'inventer des solutions inédites : ainsi, de façon plus concrète mais allant tout aussi peu de soi, en est-il pour la roue ou la voile, le bain-marie ou le gnomon, l'abaque ou le zéro.

Si l'intelligence humaine est capable de tels exploits, aucune I.A. au sens fort ne peut être qualifiée d'intelligente si elle ne les renouvelle pas sans même parler de les dépasser. Toute la question est de savoir si une Intelligence Artificielle aurait pu inventer la physique quantique à partir de quelques écarts observés à la mécanique classique. Dans l'état actuel de l'art, rien ne le laisse supposer. On a bien essayé d'écrire des programmes de production automatique de théorèmes. Mais, fonctionnant sur un mode strictement conditionnel, ils se sont montrés extrêmement décevants, ne produisant que des résultats triviaux comme on pouvait s'y attendre.(31) De telles approches ne permettent pas de comprendre pourquoi un Einstein élabore la relativité ou un Heisenberg, entre autres, fonde la mécanique quantique à partir de questions posées par le réel à travers des observations. Il faut alors intégrer à la théorie la sélection des idées à travers l'histoire humaine, ce qui semble échapper aux préoccupations des chantres de l'I.A. et nous ramène au problème entrevu précédemment.

Enfin, la science ne répond et ne se propose de répondre qu'à très peu de questions entre toutes les questions possibles pour un être de langage dont celles liées à ce qu'il faut faire et à ce qui est beau (ce qui plaît et par extension ce qui déplaît), et c'est aux autres questions qu'une I.A. devrait pouvoir répondre, après se les être posées, pour être qualifiée d'intelligence.

Le langage naturel est de même typiquement un espace contextuel que les dictionnaires font semblant de codifier à travers un ensemble de renvois tautologiques à des définitions, mais dont l'usage courant détruit et renouvelle sans cesse les codes à travers un flou, une imprécision qui constitue l'essentiel de tout langage naturel. Toutes les tentatives pour éliminer les ambiguïtés du langage naturel ont échoué comme l'a bien éprouvé, au sens fort du terme, Ludwig Wittgenstein. C'est leur contexte qui donne sens aux mots et aux phrases. D'où l'impossibilité de la traduction mécanique.

Côté heuristique, on a jadis fondé de grands espoirs sur la pratique des systèmes experts tant pour élucider l'intuition des spécialistes que pour rationaliser et automatiser l'exploitation de leur expérience et bien entendu nourrir ultérieurement le cerveau d'une I.A. Mais en dehors de champs relativement étroits (le diagnostic médical, la recherche pétrolière), les applications se sont montrées limitées. Elles impliquent la formalisation d'un savoir acquis par l'expérience, difficilement transmissible parce que très intériorisé et donc considéré comme intuitif par les experts même s'il se fonde sur une base rationnelle inapparente. Elles ne fonctionnent évidemment que dans un espace strictement conditionnel même s'il peut inclure des probabilités. On me permettra ici une anecdote personnelle. Directeur de collections chez Robert Laffont et économiste, donc supposé à peu près rationnel, j'ai vu mon bureau envahi un jour par deux supposés spécialistes des systèmes experts qui tenaient absolument à découvrir selon quels critères secrets un bon éditeur choisissait les livres, de préférence à succès, qu'il publiait. Bien que j'aie répondu à toutes leurs questions avec une franchise absolue, ils sont repartis deux jours plus tard bredouilles et intimement convaincus que je leur cachais les arcanes de mon art de crainte d'être remplacé par une machine. Pour une raison obscure, ils n'ont jamais admis que je retienne un livre parce qu'il me plaît sur la supposition que ce sentiment puisse être partagé.

Comme j'y ai insisté dès le départ, la question de la distinction entre machines conditionnelles et entités contextuelles demeure entièrement problématique et il n'est pas tout à fait impossible qu'elle se révèle un jour inexistante bien que cela ne me paraisse pas vraisemblable. Ce n'est pas une question simple car les entités contextuelles peuvent être en dernière instance des machines conditionnelles mais conditionnées par un univers que nous ne saurions jamais décrire de manière complète si bien que nous ne pourrions pas en produire d'équivalentes. C'est ce que souligne la citation de Claude Imbert à propos de Frege placée en exergue de cette préface : « Le logicisme engendre l'illusion qu'on pourrait étendre de manière continue la caractéristique logique à la science de l'univers, lui associer en quelque sorte un modèle universel où coexisteraient entités physiques et entités mathématiques. ». Le logicisme est en effet le péché de la plupart des thuriféraires de l'I.A. L'univers est peut-être rationnel mais nous sommes loin d'avoir découvert toutes les formes de sa rationalité et nous ne les épuiserons peut-être jamais.

Mais si la question de cette distinction a un sens, il me semble concevable que la réponse soit logée au cœur du vivant. D'un côté, il est difficile de ne pas considérer les formes de vie les plus primitives, machines moléculaires à ARN ou à ADN, comme de strictes machines conditionnelles.(32) De l'autre, les catégories du vivant un peu plus évoluées que nous connaissons me semblent se comporter comme des entités contextuelles. Je postulerai donc volontiers qu'à un instant de l'évolution, il s'est produit un bouleversement encore inaperçu aussi radical que celui qui a fait passer de l'inanimé au reproductif. Il y a un exemple, plus manifeste et plus récent d'une telle rupture, l'apparition du langage naturel humain symbolique qui a suscité un nouveau domaine contextuel presque entièrement, sinon totalement, détaché du lien conditionnel avec le réel. Il est également concevable que la trace du premier bouleversement soit présente en nous : la mécanique génétique et celle de sous-ensembles physiologiques “simples” serait conditionnelle tandis que les anticipations et les actions des corps dans leur globalité seraient contextuelles. Dans cette hypothèse, il serait possible de mimer et de modéliser l'activité des gènes et même celle, par exemple, de groupes de neurones sans que cela ouvre pour autant la porte de l'I.A. au sens fort. Faut-il préciser que je ne postule dans cette spéculation aucun “élan vital” mais une disposition naturelle dont présentement nous ignorons l'existence et jusqu'au moyen de la penser.

Ainsi je tiens le projet d'Intelligence Artificielle, et même le concept, pour un mythe moderne, issu du xixe siècle (souvenons-nous de l'Ève future de Villiers de L'Isle Adam) voire même du xviiie, d'origine philosophique puis littéraire, qui a traversé le xxe siècle en s'enrichissant au passage dans la seconde moitié de ce siècle d'une caution, ou plutôt d'une promesse, techno-scientifique. Le phénomène le plus étrange, sans précédent, est qu'une partie au moins des chercheurs engagés dans ce projet n'ont jamais cessé de puiser dans la littérature les aliments de leur foi et de leurs craintes et les éléments de leurs discours.(33)

Lorsque je parle de mythe, je ne rejette aucunement l'idée que de grands progrès seront faits dans la compréhension, la simulation et même la modélisation de modules cérébraux en quelque sorte subalternes, par exemple ceux qui touchent à la perception, à la reconnaissance de formes, aux contrôles moteurs, voire à la gestion endocrinienne. Il y a en nous du machinique. Mais je soutiens que la juxtaposition de telles simulations ne produira pas une Intelligence Artificielle, pas plus que l'addition de toutes les prothèses disponibles ne donne un être humain. Je ne rejette pas non plus comme une impossibilité absolue la production d'une I.A. mais je maintiens qu'elle demanderait un paradigme radicalement nouveau dont il ne se manifeste aucun signe précurseur dans l'état de l'art, sauf comme désir.(34)

À mes yeux, l'I.A. est non seulement un mythe mais le dernier avatar du mythe du Progrès au sens scientiste et rationaliste du terme. Elle a survécu au mythe de l'utopie collectiviste d'une gestion idéalement rationnelle de la société si bien décrit par Marc Angenot(35) et a en quelque sorte désormais pris sa place après le terrible échec de ce dernier au xxe siècle, en suggérant la possibilité d'une Intelligence parfaitement rationnelle et donc susceptible de résoudre les contradictions humaines par le haut.(36) À la différence de l'utopie collectiviste, le mythe de l'Intelligence Artificielle n'a même pas commencé d'être soumis à l'épreuve de l'expérience. Il continue donc d'annoncer sans plus de preuves la venue d'une sorte d'entité divine mais produite par l'Homme, terme de l'histoire humaine mais non de sa propre histoire dont l'accélération furieuse conduirait bien au-delà de l'humain.(37)

C'est après tout ce qu'annonçait, dès les années cinquante, Fredric Brown dans sa célèbre nouvelle ultracourte, "la Réponse".(38) Tous les ordinateurs de l'univers sont réunis en un réseau afin de constituer un superordinateur à qui l'on pose une première question : « Y a-t-il un Dieu ? ». La réponse est fulgurante : « Maintenant, il y en a un. », tandis qu'un éclair surgit du ciel et détruit le levier qui permettrait de débrancher le réseau.

Gérard Klein → Excession par Iain M. Banks
Librairie Générale Française › le Livre de poche › Science-Fiction, [2e série], nº 7241, juin 2002

Lire aussi les préfaces à Inversions & Transition


  1. Look to windward (2000).
  2. Voir la préface à l'Homme des jeux.
  3. Rossumovi Univerzální Roboti (1920).
  4. the Tower of glass (1970).
  5. the Humanoids (1949).
  6. Alias "Hélène A'lliage" (1938).
  7. "Super-Toys last all summer long" (1969), récemment porté à l'écran par Steven Spielberg sous le titre A.I.
  8. Il n'est pas question directement d'Intelligences Artificielles dans Dune, mais il y est fait allusion à une ancienne Guerre des Machines au cours de laquelle l'Humanité a failli être vaincue et qui a conduit à l'interdiction formelle de toute recherche et production visant à en recréer.
  9. D'une cinquantaine d'ouvrages et articles portant sur l'I.A., lus dans la perspective d'un autre travail dont la présente préface n'est qu'un prolongement accessoire, je ne citerai ici que l'Âme-machine : les enjeux de l'intelligence artificielle de Jean-Gabriel Ganascia (le Seuil, 1990) et l'Ordinateur et l'esprit de Philip N. Johnson-Laird (the Computer and the mind, 1988, édition française : Odile Jacob, 1994), qui, en sus de leur qualité, ont l'avantage de couvrir le champ diffus des différentes disciplines vaguement fédérées par le projet de création d'une Intelligence Artificielle. J'ajouterai que ces deux auteurs seraient très probablement en désaccord profond avec le scepticisme de cette préface bien qu'ils fassent eux-mêmes, chacun à sa manière, de sérieuses réserves sur la faisabilité d'une I.A. Le lecteur aura sans doute aussi avantage à se reporter à l'essai de Hubert L. Dreyfus, contempteur fameux de l'I.A., Intelligence artificielle : mythes et limites (Flammarion, 1984), bien qu'il soit déjà ancien puisque sa première édition anglaise remonte à 1972 (What computers can't do). Je voudrais ajouter à cette liste la Machine de Turing d'Alan Turing et Jean-Yves Girard (le Seuil, 1995), excellent petit livre étudié après l'achèvement de cette préface, qui en éclaire et conforte certains aspects, bien que la présentation de Girard de la pensée de Turing soit assez difficile d'accès pour le non-spécialiste et que cet auteur, par ailleurs éminent, soit parfois agaçant dans sa volonté de faire branché.
  10. À ceux qui en douteraient, je recommande l'essai des traducteurs automatiques disponibles sur la toile qui certes ne représentent sans doute pas l'état de l'art.
  11. Voir le roman de Neal Stephenson, Cryptonomicon (1999).
  12. Mardi 9 novembre 1999.
  13. Emprunt manifeste à Frank Herbert, entre autres !
  14. Mercredi 26 mai 1999.
  15. Mon scepticisme est conforté par celui de Rodney Brooks exprimé dans son article "l'Inimaginable chaînon manquant", (la Recherche, numéro spécial sur les Nouveaux robots, nº 350, février 2002), dont la lecture est ici fortement recommandée. On pourra également consulter avec profit le numéro spécial, certes déjà ancien, de la même revue consacré à l'Intelligence artificielle (nº 170, octobre 1985) pour évaluer le chemin parcouru, en particulier en termes de désillusion.
  16. Ils ont sur les automates de Vaucanson l'avantage de réagir à leur environnement mais d'une façon aussi mécanique que si leurs rouages étaient en prise sur les “rouages” de cet environnement.
  17. Cette exigence radicale et quelque peu exorbitante est évidemment récusée par la plupart des auteurs, dont Ganascia et Johnson-Laird, mais ils demeurent très peu convaincants sur les moyens de la contourner et s'en montrent tout à fait conscients. L'objection que je fais est évidemment ici résumée d'une façon presque caricaturale. Elle exclut en effet délibérément le problème du sens.
  18. Ce qui est parfaitement manifeste dans le livre de Johnson-Laird (p. 39) qui ne résiste pas à une analyse grammaticale élémentaire.
  19. On le trouvera dans l'excellente anthologie Pensée et machine (Champ Vallon, 1983).
  20. De tels simulacres plus ou moins convaincants existent depuis longtemps. Un bon exemple ancien en est donné par le programme Eliza qui prétendait simuler les questions et réponses évasives d'un psychothérapeute et dont l'intention ironique était manifeste. Quelques commentateurs inspirés n'en ont pas moins conclu qu'on était à la veille d'une psychothérapie machinique qui mettrait au chômage psychanalystes et psychologues de toutes obédiences.
  21. Pour une discussion un peu plus approfondie, voir Jean-Gabriel Ganascia, page 26 et suivantes.
  22. On trouvera des indications intéressantes dans l'article de Nicolas Guibert, "la Programmation des jeux de stratégie" (Pour la science, nº 293, mars 2002). Malheureusement, dans son enthousiasme, Guibert tombe parfois dans son exposé dans l'anthropomorphisme déjà dénoncé et qui le conduit à présenter un programme comme un joueur.
  23. On en trouvera un exemple particulièrement caricatural dans le numéro 1013 de Science et vie (février 2002) avec le sous-titre : "Toute pensée est un calcul".
  24. Ce qui, pour être juste, est rappelé par Jean Petitot dans la revue citée.
  25. Pour une analyse beaucoup plus fine de cette question, voir l'Ordinateur et le cerveau de John von Neumann (the Computer and the brain, 1958), et surtout sa postface, "les Machines molles de von Neumann" de Dominique Pignon (la Découverte, 1992).
  26. Incidemment, la notion bien établie que toute machine de Turing peut être émulée par un réseau neuronal n'a pas, au moins pour l'instant, pour corollaire son inverse, à savoir que tout réseau neuronal peut être émulé par une machine de Turing.
  27. L'Art moderne, tome 2. Cité par Philippe Greig dans l'Enfant et son dessin : naissance de l'art et de l'écriture, page 179 (Érès, 2000).
  28. Je focalise ici mon expression sur le cerveau par commodité, mais c'est évidemment du corps tout entier qu'il faudrait parler, voir des relations entre les corps et ainsi de suite jusqu'à englober toute la vie.
  29. Cette éventualité avait déjà été redoutée par John von Neumann dans l'Ordinateur et le cerveau.
  30. La réalité historique est assurément plus complexe qu'on ne le dit généralement : les équations de Boltzman et celles de Maxwell pouvaient laisser présager un changement de paradigme.
  31. Dans un ouvrage français certes déjà ancien, William Skyvington donne un exemple peu convaincant d'un cas inédit de démonstration produite par un ordinateur : Machina sapiens : essai sur l'intelligence artificielle (le Seuil, 1976), p. 36.
  32. Voir la préface à Héritage de Greg Bear.
  33. L'astronautique par exemple a une évidente dette symbolique envers la littérature qui a établi la conquête de l'espace comme un désir collectif légitime, et cette dette a été reconnue par nombre de ses praticiens, mais dès qu'elle s'est constituée comme une science, ou plutôt comme un ensemble de techniques, elle a complètement cessé de faire référence à cette littérature.
  34. Et là je n'hésite pas à me montrer beaucoup plus radical qu'un Hubert Dreyfus qui rejette seulement dans un avenir éloigné la production d'une I.A. en dénonçant l'imposture actuelle de ses tenants. À mon point de vue, la difficulté est encore plus profonde.
  35. L'Utopie collectiviste : le grand récit socialiste sous la Deuxième Internationale (PUF, 1993).
  36. Cela est tout à fait explicite dans le Cycle de la Culture d'Iain M. Banks.
  37. Voir le roman de Vernor Vinge, un Feu sur l'abîme (a Fire upon the deep, 1992).
  38. "Answer" (1954).