L’intelligence peut-elle être artificielle ?

L’intelligence peut-elle être artificielle ?

Hubert Krivine, physicien, vient de publier Comprendre sans prévoir, prévoir sans comprendre (Cassini, 2018). Il a été enseignant-chercheur aux universités Pierre et Marie Curie et Paris XI. Une vidéo vous le fera découvrir dans son milieu naturel, le biotope académique : https://diderot-tv.univ-paris-diderot.fr/videos/hubert-krivine-le-hasard-lepreuve-du-temps Mais Hubert Krivine a beau être savant, il ne manque pas d’humour. Il utilise dans son livre des exemples amusants et il cite quelques superbes âneries. Claude Allègre, Luc Ferry, et beaucoup d’économistes libéraux ne s’en tirent pas à leur avantage. Il y a aussi une belle citation de Deng Xiaoping que chacun devrait apprendre par cœur. Dans le texte, bien sûr. Les premières lignes de Comprendre sans prévoir, prévoir sans comprendre donnent le ton et abordent le sujet : « Les nourrissons et les machines sont conçus par des femmes (et des hommes). On sait comment fonctionne un ordinateur, on ne sait pas comment fonctionne une tête de bébé, ni d’adulte. Notons que la machine dont on comprend le fonctionnement dispose de capacités dérisoires par rapport à un cerveau qu’on ne comprend pas. Certes, cette dernière sait faire des calculs gigantesques et battre le champion du monde aux échecs, mais elle ne s’en est pas aperçue. Par contre, Kasparov, lui, sait faire frire des œufs au plat et des milliards d’autres choses encore. » (*) Voici des extraits de la préface de Jean-Claude Ameisen, que les auditeurs du samedi matin sur France-Inter connaissent bien : « A partir d’une exploration de la nature de la démarche scientifique, Krivine aborde la question complexe des différences entre l’intelligence humaine et ce que l’on a nommé, d’un terme ambigu, l’intelligence artificielle. L’intelligence artificielle ouvre sur un nouveau monde, dont il est difficile de préfigurer les contours […] L’une des grandes différences entre nous et les machines, nous dit Krivine, c’est que les machines d’intelligence artificielle sont, pour l’instant, dédiées, focalisées. » Ameisen cite alors le chercheur en informatique Edward Tenner : « Une fascination pour cette extraordinaire efficacité [des machines] qui se déploie dans un champ restreint pourrait, si nous n’y prenons pas garde, nous faire manquer ce que nous aurions pu imaginer, explorer, découvrir, comprendre, si nous n’étions pas aussi focalisés […] » Le chercheur en informatique Pedro Domingos, cité par Ameisen : « Les gens s’inquiètent de ce que les ordinateurs deviennent trop intelligents et prennent le contrôle du monde, mais le véritable problème, c’est qu’ils ont déjà pris le contrôle et qu’ils sont complètement cons. » Pour comprendre la spécificité de l’intelligence humaine, Hubert Krivine cite parfois le philosophe et psychanalyste Miguel Benasayag, qui était venu jadis au cercle Gramsci avec Florence Aubenas pour nous parler des médias, dans le cadre du château de Ligoure. Depuis cette époque, Benasayag s’est beaucoup interrogé sur l’« intelligence artificielle » et sur les fantasmes « transhumanistes ». Il a écrit Cerveau augmenté, homme diminué (La Découverte, 2016). Dangers du « Big Data », puissance et limites de l’intelligence artificielle, spécificité de l’intelligence humaine, calculs statistiques contre-intuitifs, histoire des sciences, (im)prévisibilité : avec rigueur mais dans une langue accessible, Hubert Krivine aborde toutes ces questions. La machine pourra-t-elle « apprendre à apprendre » un jour ? C’est l’idée (ou le fantasme) de « l’intelligence artificielle (IA) forte » supérieure à l’intelligence artificielle faible, celle que nous connaissons aujourd’hui et qui fait que les machines sont exclusivement dédiées à des tâches. Voici quelques lignes (p. 124) de la conclusion d’Hubert Krivine : « […] rien ne s’oppose en principe à ce que l’intelligence des machines dépasse celle des cerveaux humains. Un jour. Comme rien non plus ne s’oppose – en principe – à l’explication des événements politiques par les interactions entre molécules […] Avouons que si nous doutons de cette possibilité d’atteindre un jour cette IA forte, nous n’avons aucun argument rationnel pour l’exclure. Tout est dans le ‘‘un jour’’. Éventuellement, combien de fois l’âge de l’univers ? » Bibliographie Hubert Krivine, Comprendre sans prévoir, prévoir sans comprendre, éd. Cassini, 2018, 134 pp., 12 euros. Du même auteur, aux éditions Cassini : – La Terre, des mythes au savoir, 2011. – Petit traité de hasardologie, 2016. Avec Annie Grosman, aux éditions De Boeck : – De l’atome imaginé à l’atome découvert : contre le relativisme, 2015.

L’intelligence peut-elle être artificielle ?

Compte rendu de la soirée débat du jeudi 22 novembre avec le physicien Hubert Krivine.

Marc Guillaumie :

Hubert KRIVINE est physicien chercheur, et auteur de plusieurs livres de vulgarisation scientifique, dont :

Comprendre sans prévoir, prévoir sans comprendre (Cassini, 2018), qui aborde entre autres sujets celui du big data et de la prévision des comportements des consommateurs ;

Petit traité de hasardologie (2016) ;

La Terre, des mythes au savoir (2011).

Jean-Claude Ameisen, dans sa préface de Comprendre sans prévoir, prévoir sans comprendre, présente ainsi le livre : « À partir d’un exploration de la nature de la démarche scientifique, Krivine aborde la question complexe de la différence entre l’intelligence humaine et ce que l’on a nommé d’un terme ambigu l’intelligence artificielle. »

Que signifie donc « intelligence artificielle » (IA) ? Peut-on parler d’intelligence à propos d’une machine ? Miguel Benasayag, un philosophe que nous avions reçu au cercle Gramsci et qui est d’ailleurs cité par Hubert, montre dans Cerveau augmenté, homme diminué (2016) que l’intelligence humaine est en relation profonde avec le corps et les affects.

Une dernière citation de Ameisen, qui lui-même cite ici un chercheur en IA, situera, de façon amusante mais juste, le thème de la discussion de ce soir : « Les gens ont très peur que les ordinateurs deviennent intelligents et prennent la maîtrise du monde et nous dominent ; mais la réalité dont on devrait avoir peur, c’est qu’ils ont déjà la domination du monde et qu’ils sont complètement cons. »

Krikri :

Hubert Krivine : Je vais faire le résumé de ce que je vais vous raconter. Voici la question que je vais poser : « Peut-il y avoir une intelligence artificielle ? » et la réponse très résumée sera : « Probablement non ». Je n’ai pas d’argument pour dire que ça ne pourra jamais exister, mais j’ai beaucoup d’arguments pour dire que ce n’est pas une affaire aussi simple que ce qu’on pourrait croire.

Je ne suis pas un spécialiste de l’IA. Je vais développer ici le point de vue d’un candide physicien, confronté à une discipline en pleine expansion : l’expansion de l’IA est un peu comme celle de l’univers. Ça va beaucoup plus vite que ce qu’on pensait, et c’est plein de trous noirs. Plus qu’un exposé, mon intervention va être une série de questions.

Remarque préliminaire : jusqu’à l’invention de l’électricité, les humains dominaient à peu près bien les outils qu’ils fabriquaient. Par exemple, si un chariot tiré par des chevaux avançait, on comprenait à peu près ce qui se passait : les chevaux tiraient, le chariot avançait. Même des choses un peu plus sophistiquées comme le canon, et même une machine à vapeur, ce n’est pas très compliqué : un piston, un système de bielles, et ça tourne.

L’électricité va changer complètement la donne. C’est impalpable. On ne voit pas comment ça marche. Et aujourd’hui encore, si vous interviewez des citoyens pris au hasard dans la rue et que vous leur demandez comment marche un moteur électrique, vous aurez des surprises. Ou plutôt, non : pas de surprise, ils ne savent pas. Pire : demandez-leur comment marche leur téléphone portable, ou comment marche la télé… c’est totalement mystérieux. C’est magique, en quelque sorte. Donc, c’est clairement une forme d’aliénation.

Les ordinateurs, c’est encore pire. Énormément de gens utilisent des ordinateurs, et 99,9 % d’entre eux ignorent comment ça marche. D’ailleurs le vocabulaire est intéressant : on parle de virus informatique comme on parle de virus humain, on parle d’intelligence artificielle, on parle de réseaux de neurones… il y a donc un vocabulaire très naturalisé, qui efface la différence entre le monde inanimé et le monde vivant. Mais l’IA est un pas de plus dans l’aliénation, car elle fait plus que réaliser des tâches : elle anticipe nos désirs et nos comportements.

On est sur le point de construire des voitures qui se conduisent toutes seules, mais pour le moment, on leur dit où on veut aller ; demain, elles nous diront où on veut qu’elles aillent. La voiture décidera elle-même où elle va, en fonction de vos goûts ou de vos habitudes. Donc il y a un pas de plus, qui devrait nous faire un peu réfléchir !

Définir l’intelligence ?

Comment définir l’intelligence artificielle (IA) sans définir l’intelligence ? Définir l’intelligence est, comme chacun le sait, un gros problème.

Voici une idée astucieuse d’Allan Turing : le test de Turing définit l’IA sans définir l’intelligence… comme dit Reverdy : « Il n’y a pas d’amour, il n’y a que des preuves d’amour ». Eh bien, il n’y a que des preuves d’intelligence. On considère qu’il y a IA si la machine satisfait au test de Turing. Ce test fait dialoguer un monsieur ou une dame avec quelque chose qu’il ou elle ne connaît pas, qui peut être soit un humain soit une machine. Si cette dame ou ce monsieur arrive à dire « C’est une machine » alors le test de Turing est rempli. Pour le moment, les machines ont toujours échoué au test de Turing : au bout d’un moment, le questionneur arrive à se rendre compte s’il s’agit d’une machine ou d’un humain ; mais le jour où ce test sera remporté, on pourra dire qu’il y a réellement une IA.

La question de la définition de l’intelligence est très compliquée, et je vais prendre une définition très simple : le fait de comprendre. Que signifie comprendre ? Étymologiquement, cum-prehendere, c’est mettre les choses ensemble. Des choses distinctes, qui semblaient ne rien avoir de commun entre elles, sont reliées. Quand on a fait ça, on a fait preuve d’intelligence… Mais alors, cette intelligence peut être instinctive ? Un lion sent l’odeur d’une gazelle, il établit le rapport entre l’odeur de la gazelle et sa présence, donc il est intelligent ? Le chien de Pavlov (entraîné à associer l’arrivée de la nourriture avec un bruit de sonnette) est en ce sens intelligent ? Mais c’est purement empirique. Ce n’est pas une relation causale.

L’intelligence peut être beaucoup plus conceptuelle, et cette intelligence plus théorique est réservée aux humains : c’est la connaissance de lois. [ici Hubert projette une image illustrant la loi de gravitation de Newton]. Cette loi nous fait « comprendre » pourquoi la Lune tourne autour de la Terre, quelle est sa période, etc. En principe les chiens et les lions n’ont pas des lois comme ça. C’est ce que Kant appelle l’entendement : non pas une connaissance empirique, mais théorique, qui vient compléter la connaissance empirique. Par exemple quand Newton explique pourquoi les pommes tombent, il montre qu’elles tombent selon la même loi qui fait que la Lune tourne autour de la Terre ; apparemment ça n’a rien à voir. Mais Newton a mis en correspondance des éléments qui apparemment n’avaient rien à voir, par une compréhension théorique.

IA faible et IA forte

Qu’est-ce que l’IA ? C’est très mal défini. Auprès de beaucoup de chercheurs en IA avec qui j’ai discuté, j’ai obtenu toutes sortes de réponses. Je dirai simplement que c’est une science qui vise, à l’aide de l’informatique, à assister, voire à simuler, voire à supplanter l’intelligence humaine. C’est une espèce de prothèse du cerveau.

L’usage est de distinguer l’IA faible de l’IA forte. L’IA faible est la capacité qu’ont ces machines à résoudre des problèmes déterminés. Par exemple gagner au jeu d’échecs, au jeu de go, et même faire des choses beaucoup plus sophistiquées : vous aider à conduire une voiture, etc. La reconnaissance d’images, la capacité à traduire des textes, la capacité à faire des diagnostics médicaux de tumeurs, à diagnostiquer vos préférences culinaires ou matrimoniales. Tout ça ne marche pas mal aujourd’hui. Mais c’est de l’IA faible, c’est-à-dire dédiée à une tâche spécifique. Dans l’introduction de mon bouquin, j’ai écrit que la machine a battu Kasparov aux échecs, c’est certain ; mais qu’elle ne sait pas cuire un œuf, alors que Kasparov sait le faire. Des collègues m’ont dit : « Ton exemple est vulgaire, on pourrait très bien apprendre à la machine à cuire des œufs. » Très bien ; mais il y a des tas de choses qu’elle ne saurait pas faire pour autant. Elle est dédiée au jeu d’échecs et pas à autre chose. Kasparov, lui, on peut penser qu’il sait cuire un œuf ; même s’il ne le sait pas, il pourrait apprendre sans changer de structure. Un crocodile dans un marigot est certainement plus intelligent que vous pour y survivre. Pourtant on ne dira pas que le crocodile est plus intelligent que vous en général. C’est une intelligence dédiée à une certaine tâche.

L’IA forte est quelque chose qui peut simuler et même concurrencer l’ensemble des dispositions cognitives du cerveau humain. C’est quelque chose d’infiniment plus vaste. C’est quelque chose qui non seulement vous battra aux échecs, mais saura faire cuire des œufs sur le plat.

Induction et déduction

Quelques mots sur une typologie sommaire des machines d’intelligence artificielle.

Dans les années 1950 et même un peu après, les machines d’IA étaient essentiellement des machines expertes. Sur la base des connaissances des professionnels, elles posaient une série de questions, et la machine faisait des diagnostics. Par exemple devant un malade elle pose des questions, elle apprend qu’il a des frissons et a voyagé dans des pays exotiques, elle pense au paludisme. Elle propose alors un examen particulier, qui va décider si oui ou non ce malade a le paludisme. C’est une série de raisonnements comme ça, qui aboutit à une conclusion. Comme il y a énormément de maladies possibles, ça peut rendre de grands services, surtout avec des maladies beaucoup plus rares que le paludisme.

Ces machines expertes ont très vite rencontré des limites, parce qu’il faut amasser une masse énorme de connaissances pour pouvoir aboutir à des conclusions.

Aujourd’hui, les machines fonctionnent beaucoup plus souvent par apprentissage. Elles opèrent par induction, et non par déduction. Induction ça veut dire que, pour la machine qui a accumulé une masse de données gigantesques, ce qui peut se passer s’est déjà passé, ou est très proche de s’être déjà passé. Pas d’imagination. La machine a une base de données impressionnante, de milliards et de milliards d’informations, mais elle ne peut pas introduire quelque chose de nouveau. Si vous voulez, opérer par induction, c’est ce que faisaient les Anciens avant Galilée. Avant la Renaissance, on ne peut pas dire qu’il n’y avait pas de connaissances. On savait prévoir, même : on savait prévoir les éclipses de lune, les marées, certaines inondations. Mais on procédait par induction : comme il s’agissait de phénomènes relativement périodiques, sur la base des connaissances du passé on pouvait relativement bien prévoir ce qui allait se passer. Mais ce n’était pas causal, ce n’était pas explicatif. Pour la vie quotidienne, le raisonnement par induction suffit.

Par exemple, raisonnant par induction je peux dire : vous ne mourrez jamais, puisque chaque jour vous vous réveillez vivant. Et vous savez bien que ça ne marche pas jusqu’au bout… la Terre va continuer à tourner autour du Soleil. On sait que ce n’est pas vrai : dans 4 milliards d’années personne ne sait ce qui va se passer, mais dans la vie quotidienne il suffit largement de raisonner par induction.

Mais j’insiste lourdement : l’induction ne démontre rien. Elle permet de subodorer quelque chose. Elle ne démontre pas et ne peut pas démontrer. Il ne faut pas confondre ça avec l’induction mathématique (le raisonnement par récurrence) qui, lui, démontre quelque chose.

Tous les apprentissages de machines aujourd’hui fonctionnent par induction.

Typologie

Il y a trois types de machines possibles :

1. Celles qui sont sous ce qu’on appelle « apprentissage supervisé ». Vous donnez à la machine des millions de photos de chats et de chiens, mais les millions de photos sont étiquetées, c’est-à-dire qu’on a dit à la machine : « Ça c’est un chat » ; « Ça c’est un chien ». Puis vous lui montrez une nouvelle photo et elle essaye de voir dans quelle mesure cela ressemble à une photo qu’elle a déjà en mémoire, et si elle peut reconnaître un chat ou un chien. Je ne veux pas entrer dans les détails, mais en gros la machine va se débrouiller. Cet apprentissage supervisé s’est développé dans les années 1970-1980, puis beaucoup plus dans les années 2000.

2. Il y a aussi l’apprentissage non supervisé, qui excite le plus les théoriciens. C’est la même chose, vous avez des millions et des millions de données, mais elles ne sont plus étiquetées. La machine se débrouille sans qu’on lui dise rien pour créer des clusters, des regroupements, et elle va elle-même inventer le concept de chat ou de chien, en trouvant que parmi toutes ces photos il y a des choses qui se ressemblent un peu (j’ai pris l’exemple des photos, mais ce pourrait être des sons, des lettres, etc.). Dans mon exemple des photos, la machine ne va pas dire que ce sont des chats évidemment (c’est à vous de le dire) mais elle va les classer dans le même coin. Et ensuite, quand elle a affaire à une photo inconnue, elle va regarder de quoi est le plus proche cette photo inconnue.

3. Enfin il y a l’apprentissage par renforcement. Ça permet à la machine d’apprendre un comportement qui n’a jamais été défini par l’homme. On ne présente pas les photos. La machine interroge, et en fonction des réponses qu’elle reçoit, elle change son tir. Par exemple l’équilibre à vélo : c’est très difficile à planifier… si le vélo tombe un peu à droite, la machine analyse et donne une petite impulsion au guidon, et successivement elle finit par trouver un bon équilibre. Elle interroge l’environnement, elle reçoit des réponses, et elle corrige le tir.

Voilà l’apprentissage par renforcement. Ça fait beaucoup réfléchir sur l’apprentissage humain. On peut se dire : un bébé, c’est comme ça qu’il apprend à marcher, par essais et erreurs… Oui et non. Quand il apprend à parler, comment fait-il ? Il se débrouille, y a le sourire des parents, quand c’est bon il a une récompense. Donc on peut se dire que c’est comme ça qu’il fait pour apprendre à parler, à marcher, etc.

Et les adultes, quand ils apprennent une langue étrangère, comment font-ils ? Il apprennent la grammaire et le dictionnaire, ce n’est pas du tout un apprentissage par renforcement, ce n’est pas du tout comme ça qu’ils ont appris leur langue maternelle. Donc pour les êtres humains il y a des façons différentes d’apprendre, et ça peut être aussi des mélanges de toutes ces façons différentes.

Mais même si vous prenez un gamin, il se passe des choses étonnantes. La machine qui travaille par renforcement, pour qu’elle reconnaisse par exemple un hippopotame, il faut d’abord lui avoir confié des millions de données, des millions de photos d’hippopotames. Un gamin de trois ans, si vous lui avez montré trois ou quatre photos d’hippopotames, même un peu stylisés, il va reconnaître ensuite cet animal, même vu d’avion ou avec une couleur différente. Il va se débrouiller. Comment fait-il ? Ce n’est pas un apprentissage par renforcement, c’est quelque chose d’autre, qui renvoie à l’inné du gosse. Un cerveau, ce n’est pas quelque chose de vierge auquel on apporte des connaissances ; il semble y avoir quelque chose de pré-câblé. Je renvoie à des gens très savants comme Piaget ou Chomsky, mais tout cela reste un peu mystérieux. C’est intéressant que l’IA nous oblige à réfléchir à ces connaissances de l’homme.

C’est la même chose pour la traduction. Les premières traductions par machines automatiques étaient faites naïvement avec un grand dictionnaire et la syntaxe, et donnaient quelque chose de très mauvais. Maintenant, les traductions automatiques qui ne sont pas mauvaises (pas pour les textes littéraires, mais pour les textes un peu secs, pour le langage des politiciens par exemple), ces traductions ne fonctionnent pas avec dictionnaire et syntaxe, mais par apprentissage non supervisé : elles comparent les mots prononcés par l’homme politique à des stocks de mots déjà prononcés. Comme ce n’est pas très original, ce que raconte le politicien, la machine va trouver assez vite la correspondance et elle fera d’assez bonnes traductions. On est infiniment loin d’être capable de traduire un texte littéraire, c’est hors d’atteinte. Mais pour un texte technique ou pour le compte-rendu d’un match de foot, on peut très bien faire ça automatiquement.

La question qu’on peut se poser, c’est : est-ce que la généralisation ou l’extension de ces IA faibles (celles qui traduisent, celles qui apprennent des langues, celles qui jouent aux échecs, etc.) permettra un jour d’atteindre l’IA forte ? Celle qui simulerait l’intelligence globale des êtres humains ? Il y a beaucoup de gens très savants et très connus comme Bill Gates, Stephen Hawkins, des grands hommes comme Obama ou Macron, qui y croient vraiment et qui ont écrit des textes là-dessus.

Mais la question est peut-être mal posée. On pourrait plutôt se demander : pourquoi les machines imiteraient-elles le fonctionnement de l’esprit humain ? Peut-être qu’il y a une autre façon de parvenir à la connaissance, sur la base des corrélations. Si on dispose, non pas comme les Anciens de quelques corrélations, mais de milliards de corrélations, alors on peut tirer des prévisions.

J’insiste sur le fait qu’une corrélation n’est pas une causalité, mais les corrélations peuvent quand même être prédictives. Je vous donne un exemple grossier mais qui me plaît bien : il y a une corrélation très étroite entre la pointure des chaussures des gamins et leur niveau en mathématiques. Plus la pointure des gamins est grande, meilleurs ils sont en maths. C’est démontré, c’est presque une droite !

Vous vous doutez bien qu’il n’y pas de causalité directe, et on comprend la réponse : plus les pieds sont grands plus les écoliers sont vieux, et plus ils sont vieux meilleurs ils sont en maths. Il y a une variable cachée derrière tout ça. N’empêche que ce n’est pas explicatif, mais ça a une vertu de prédiction. Donnez-moi une moyenne de taille des pieds des gamins et je vous donnerai la moyenne de leur niveau en maths, même si ça n’a aucun rapport causal. Or la machine fait des corrélations, et n’est pas capable de distinguer une corrélation causale d’une corrélation non causale. Mais c’est quand même intéressant, surtout dans les domaines où les théories sont faibles.

Attention : il faut qu’il s’agisse de vraies corrélations, et non pas dues au hasard, ce qui arrive assez souvent. Pourquoi ? Parce qu’il se passe dans le monde, à chaque instant, des milliards d’événements. Grâce au big data on dispose de millions d’événements qui sont digitalisés, qui sont quelque part dans des mémoires. Et quand on étudie des millions d’événements, ce serait bien le diable s’il n’y en a pas deux qui se ressemblent terriblement, même s’ils n’ont rien à voir. Vous vous baladez dans la rue, vous trouvez qu’un numéro matricule de voiture correspond exactement à l’âge de votre belle-mère, et vous trouvez que c’est un hasard bizarre. C’est idiot, parce qu’il n’y a que pour vous que c’est un hasard, et sur les centaines de milliers de numéros matricules, c’est normal qu’il y en ait un qui indique l’âge de votre belle-mère.

Des études ont été faites sur ces phénomènes qu’on appelle des coïncidences. Par exemple voici [Hubert projette un graphique] la consommation de fromage corrélée au nombre d’individus qui se sont étouffés dans leur lit. Vous voyez comme c’est impressionnant, ça marche bien ! C’est purement un hasard, mais il y en a plein comme ça. Les dépenses en sciences en fonction du nombre de suicides par pendaison. Les taux de divorce dans le Maine en fonction de la consommation de margarine par habitant. Le nombre des victimes par noyade dans des piscines, en fonction de la puissance générée par les centrales nucléaires, etc., etc.

Ce sont purement des corrélations par hasard, mais ça permet tous les discours trompeurs. En plus, celui qui présente un tel graphique est libre du choix des coordonnées, donc il peut toujours changer, donc c’est bidon. Par contre la corrélation entre la pointure des gamins et leur niveau en maths, ça, c’est une vraie corrélation. On pourrait en donner d’autres : la consommation de glace et le nombre de noyades en mer sont corrélées. On comprend pourquoi : quand il y a du soleil, les gens consomment des glaces et vont se baigner.

Les données ne peuvent pas mentir !

Ainsi, surtout dans les domaines où les théories sont faibles, on pourrait développer de très bonnes prévisions, parce que contrairement aux Anciens, on a aujourd’hui des milliards de données. Donc, au lieu de s’embêter à faire des théories qui de toutes façons sont toujours plus ou moins fausses, fondons-nous sur des corrélations. L’idée, c’est que les données ne peuvent pas mentir :

« Avec suffisamment de données, les nombres parlent d’eux-mêmes » ; « La corrélation remplace la causalité et la science peut même avancer sans modèle cohérent, théorie unifiée, voire sans aucune explication mécaniste du tout. » (Anderson)

C’est absolument vrai que dans des tas de domaines comme la météo, on est incapable de faire des prévisions grâce à la théorie, mais qu’on peut en faire grâce aux banques de données. Mais quand même, ça ne marche pas comme ça.

D’abord, il faut faire très attention à ce qu’on appelle des données. C’est une naïveté de croire qu’il y a des données brutes, qui ne mentent pas. Les données sont une production de l’activité humaine dans tel ou tel domaine, et elles sont presque toujours biaisées d’une façon ou d’une autre. Si vous vous intéressez au sex-ratio et que vous faites un sondage à la sortie d’un match de foot, vous obtiendrez la donnée que trois personnes sur quatre sont des hommes.

Je vais vous donner un autre exemple qui montre que si les données ne sont pas bonnes, quelle que soit la quantité de données dont vous disposez, le résultat ne sera pas bon. Car il y a l’idée naïve que plus la quantité de données est grande, meilleure est la prévision. Ça suppose des hypothèses très fortes qui souvent ne sont pas remplies. Cet exemple m’a beaucoup frappé : pendant la Deuxième Guerre mondiale, la RAF anglaise a embauché un mathématicien hongrois pour savoir comment blinder les avions. Plus vous blindez les avions, moins ils sont touchés par la DCA, mais plus ils sont lourds et peu maniables. Donc il y a un optimum à trouver : un blindage minimum mais cohérent. On a donné à ce savant beaucoup de carcasses d’avions, et il a calculé le nombre d’impacts par décimètre carré. Il a trouvé qu’il y avait beaucoup plus d’impact par décimètre carré sur les ailes, le fuselage, la carlingue, que sur le moteur. Sa conclusion a été : il faut blinder les moteurs. Pas mal, non ?

Pourquoi blinder les moteurs, alors que c’est là qu’il y avait le moins d’impacts ? L’explication est très simple. Le savant hongrois s’est dit : il a dû y avoir autant d’impacts partout ; mais les avions qui ont été touchés au moteur se sont écrasés et ne font pas partie des statistiques. C’est aussi simple que ça, mais ça montre que si les données sont biaisées (dans ce cas elles l’étaient) vous pouvez multiplier les exemples par un million, la conclusion sera quand même fausse. Il y a des tas d’autres exemples comme ça, de raisonnements qui sont faux dès le départ ; le nombre des données ne fait rien à l’affaire.

J’ai déjà dit que l’induction nous explique que le futur est déterminé par le passé. Tout ce qui se passera s’est déjà passé ; il y a le biais des données, je ne reviens pas là-dessus. Le 10 octobre de cette année, Amazon a débranché son robot recruteur qui lui servait à trouver les meilleurs employés, parce qu’il a été démontré que ce robot était misogyne. Mais évidemment : il se fondait sur les recrutements précédents, qui étaient évidemment à l’image de la société. Donc c’est naïf de dire que l’IA est misogyne, elle n’est rien du tout, elle est ce que font les données dont elle dispose.

Quand vous faites des prévisions dues à la théorie, cela n’a rien à voir. Je voudrais insister lourdement là-dessus. Une théorie, ça n’est pas un résumé de faits expérimentaux. Newton n’a pas vu tomber plus de pommes que les autres, pourtant il a fait la théorie de la gravitation. Cette théorie nous explique que la pomme tombe pour la même raison que la Lune tourne autour de la Terre, et la Terre autour du Soleil. Ça n’est pas une donnée empirique, et même ça choque le bon sens. C’est une théorie, et une théorie très profonde parce qu’elle permet de prévoir énormément de choses.

De même la théorie de la relativité (que je ne développerai pas ici : je me contente de vous en menacer) n’est pas du tout fondée sur des données expérimentales, mais uniquement sur des considérations théoriques… mais attention ! Il a bien fallu la vérifier expérimentalement ! Cela a été fait, et dans le détail. On a pu ainsi prévoir les ondes gravitationnelles ; on a pu vérifier leur existence expérimentalement, mais elles ne sont pas une donnée expérimentale à l’origine. Elles se manifestent par le fait que quand la Terre est traversée par une telle onde venue de très loin, la taille des objets varie… mais de combien ? Cela se compte en milliardième de milliardième de milliardièmes de millimètre par milliards de kilomètres, c’est-à-dire que c’est totalement invisible à l’œil nu. On les a trouvées par ce qu’on les a cherchées. Et pourquoi les a-t-on cherchées ? À cause de la théorie. J’ai discuté avec des journalistes réputés scientifiques qui m’ont dit : « C’est un exemple de big data, c’est une donnée »… C’est naïf, c’est idiot. Évidemment qu’on a eu besoin des big datas pour mettre en évidence les résultats ; mais on a trouvé parce qu’on cherchait.

Au contraire : l’existence des ondes gravitationnelles va nous permettre de créer de nouveaux big datas qui vont permettre d’observer le ciel avec beaucoup plus de richesse.

Un autre exemple : en astronomie, on a le problème de la matière noire. On a besoin d’une matière hypothétique, dite noire parce qu’on ne l’a jamais vue, et qui explique pourquoi les bras des galaxies ont des mouvements qui ne sont pas très catholiques. Pour expliquer ces mouvements, il faut introduire une matière qu’on n’a jamais vue. Bon. On a besoin aussi d’une énergie noire pour expliquer pourquoi l’univers, au lieu d’avoir une expansion qui diminue, a une expansion qui augmente. On sait aujourd’hui qu’il y a des milliards et des milliards d’étoiles ; on sait en cataloguer des centaines de millions avec leur couleur, leur position et leur vitesse, grâce aux big datas ; des centaines de millions, c’est pas un truc qu’on peut faire à la main ! Donc les big datas sont indispensables pour pouvoir regarder un peu le ciel et voir ce qui s’y passe. Mais le problème de l’énergie noire ou de la matière noire, ce n’est pas un problème de big data, c’est un problème théorique. On a ce problème-là parce qu’on croit à la théorie d’Einstein ; elle semble violée ; alors on essaye de le résoudre ainsi.

La carte n’est pas le terrain

Donc les machines se fondent sur l’induction. Deuxième remarque : la carte n’est pas le terrain. Cette expression date de la guerre de 1914-1918. Il y avait un monsieur qui commandait un détachement et qui s’est fait fusiller par les Prussiens, parce qu’il y avait un creux sur le terrain qui n’était pas sur la carte ; ça lui a coûté très cher. La carte n’est pas le terrain, ça veut dire qu’il y a un problème de réductionnisme.

Un champ par exemple, on peut le photographier, le ramener à quelques dizaines de millions de pixels, à des suites de zéros et de uns. C’est d’ailleurs ce que vous faites quand vous regardez le terrain avec vos yeux, avec les cônes et les bâtonnets de votre rétine ; et les capteurs modernes font aussi bien, ou mieux. Mais quand vous regardez un terrain, il n’y a pas que ça que vous ressentez, mais énormément d’autres choses : son odeur, son histoire, sa géologie, la poésie qui lui est attachée… J’attends la démonstration que tout cela pourrait se ramener à une suite de zéros et de uns. Je n’ai pas d’objection théorique à cela (on pourrait ramener les odeurs à une suite de zéros et de uns) mais ça ressemble à ce que les philosophes appellent le réductionnisme.

Un exemple de réductionnisme, ce serait par exemple de considérer la prise de la Bastille en 1789 comme des substances matérielles qui se sont opposées à d’autres ; des hommes qui ont détruit des pierres, etc. Tout ça, c’est des atomes, rien de plus et rien de moins. Est-ce que vous allez expliquer la prise de la Bastille par l’interaction entre atomes ? Ça semble délirant, et c’est ce qu’on appelle le réductionnisme.

Je n’ai aucun argument rationnel à opposer à l’idée que l’univers entier peut être décrit par une suite de zéros et de uns très très grande (voire à mon avis probablement infinie), mais que les hommes puissent tirer de cela une image réelle du monde, ça, je n’y crois pas trop.

Un autre exemple : l’IA aide énormément les médecins aujourd’hui. Il paraît que le diagnostic de tumeur maligne est souvent mieux fait par la machine que par le dermatologue, c’est ce que disent les dermatologues eux-mêmes. Mais un médecin, ce n’est pas simplement ça. J’ai discuté avec plusieurs médecins qui m’ont dit : « Les radios les photos, c’est très bien, mais moi, j’ai besoin de voir mon malade. J’ai besoin de voir s’il est gros, s’il est maigre, s’il est sincère, s’il a tendance à picoler… Plein de choses comme ça qui sont indéfinissables, mais dont j’ai besoin pour porter un diagnostic. » Parce que l’être humain est en perpétuelle connexion avec tout le reste du monde. Je ne veux pas faire de la patatophysique, il y a des charlatans qui vous disent tout est dans tout, le cosmos, et tout ça ; ça c’est du baratin, parce qu’ils ne sont pas capables de montrer des rapports de cause à effet ; mais il y a un élément réel, là : c’est que vous êtes en connexion avec le reste de l’univers de façon extrêmement subtile. Et un bon toubib (ils disent d’ailleurs que leur métier est un art) est capable plus ou moins de déceler des choses intéressantes là-dedans. Il y aura pas mal d’eau qui va passer sous les ponts, avant que les machines puissent rivaliser avec lui.

Bien sûr, il y a là un problème pour les matérialistes. Nous voulons éviter le dualisme attribué à Descartes (je vais un peu le caricaturer) qui voit d’une part la logique du vivant, d’autre part la logique de l’esprit. Nous, nous ne croyons pas à ça, nous croyons que c’est la même logique dans les deux cas de figure. Donc nous avons un vrai problème.

Ce qui est simple pour l’homme ne l’est pas pour la machine, qui ne dispose pas du sens commun. Un gosse de deux ans sait que quand il lâche une bouteille, elle tombe. La machine ne le sait pas. Un gosse de deux ans sait que quand papa a ouvert la porte pour sortir, il n’est plus là. Toutes ces choses qui ont l’air absolument triviales pour nous, ne le sont pas du tout pour la machine.

Pourquoi le gosse sait-il tout cela, et pas la machine ? C’est un vieux problème, celui de l’inné et de l’acquis. N’étant pas philosophe, je me contenterai de dire que l’inné, c’est de l’acquis sur des milliards d’années. Le cerveau d’un gosse de trois ans ne date pas de trois ans plus neuf mois. Il date de trois ans, plus neuf mois, plus trois milliards d’années pendant lesquelles il y a eu beaucoup d’essais et d’erreurs, et qui font que le gosse va reconnaître un mammouth quand il en aura vu trois, et pas plus. Il va se débrouiller avec ça.

Intelligent design

Un dernier élément, c’est que les machines développées par les hommes le sont selon un processus d’intelligent design : on fabrique la machine pour qu’elle fasse quelque chose. Mais les humains, et les êtres vivants plus généralement, n’ont pas été faits pour faire quelque chose. Il n’y a aucun but dans leur existence. Ils sont apparus comme les résultats d’un processus darwinien, par la combinaison de deux hasards : celui de la diversité génétique et celui de l’environnement qui varie. Et cela donne des êtres aussi sophistiqués que mon camarade Marc Guillaumie, présent à cette tribune, et quelques autres. Marc Guillaumie a des milliards d’années derrière lui (ça se voit) et il est le résultat d’une évolution sans but. La plupart des essais ont été infructueux, alors que quand on fabrique une machine il y a un but : on veut qu’elle marche, et qu’elle marche vite. Le développement darwinien, lui, est extrêmement long, mais extrêmement riche à long terme, beaucoup plus riche qu’un développement du type intelligent design dans lequel un but est fixé. C’est difficile à comprendre, mais ça explique la différence entre la machine et l’être humain. Comme dit Yann LeCun, un rat est beaucoup plus intelligent que n’importe quelle machine.

Je cite l’exemple de Kasparov, qui a peut-être été battu aux échecs par une machine ; mais Kasparov sait faire des œufs sur le plat. S’il y a un incendie, le rat sent l’odeur de brûlé et s’en va ; pas la machine. Elle n’a pas été faite pour ça.

Il faut briser cette logique de police d’assurances, et de police tout court, qui voudrait prévoir absolument tout sans vouloir comprendre. Si on veut agir sur les choses, il faut comprendre. Pour les assurances, non, il suffit de prévoir : elles n’ont pas pour but de changer les choses. Mais pour nous qui avons l’ambition de changer les choses, il faut comprendre.

Pour terminer je dirai que l’IA, dont je n’ai pas évoqué toutes les applications, est comme toutes les avancées scientifiques extrêmement positive si elle est en de bonnes mains. C’est comme les OGM ou tout ce que vous voudrez : si c’est en de bonnes mains c’est très bien ; si c’est en de mauvaises mains ça peut être extrêmement dangereux.

LE DEBAT

Une intervention : Si on comprenait le fonctionnement du cerveau humain, est-ce qu’on pourrait arriver à construire l’IA ?

Une intervention : Est-ce que le quotient intellectuel (QI) est suffisant pour mesurer l’intelligence humaine ? On parle aussi du quotient émotionnel.

Une intervention : Je me demandais s’il y avait une différence entre prévoir et prédire.

Une intervention : Je lisais récemment un article qui parlait de la défaite de Kasparov devant l’ordinateur Deep Blue, en 1997 je crois. J’en ai déduit que Deep Blue aurait passé le test de Turing, dans un cadre très limité certes, parce que Kasparov raconte que le 43e coup de la machine l’a totalement déstabilisé : un coup qu’il jugeait impossible de la part d’une machine, tellement il était bizarre. Kasparov a pensé qu’il y avait quelqu’un, un grand maître caché, que c’était une supercherie. Dix ans après, les ingénieurs de Deep Blue ont avoué qu’en fait la machine avait « buggé » au 43e coup [Une intervention : « Non, au 42»] et qu’elle a fait ce coup au hasard. Est-ce qu’il n’y a pas une intelligence de la machine, précisément au moment où elle se trompe ?

Une intervention : Avec ce que vous avez expliqué de l’IA, en particulier en parlant de l’enfant, j’ai l’impression que vous nous permettez de renouer avec toute la sagesse humaine antérieure, les mythes et les légendes.

Une intervention : Une question sur les techniques qui sont utilisées en IA : pendant très longtemps ça a été du calcul en très grandes masses pour faire de simples corrélations ; mais il me semble que dans les derniers développements on essaie d’aller au-delà de la simple corrélation, et on commence à se lancer dans des choses un peu plus analytiques. C’est une vraie question que je vous pose, car je n’y connais rien.

Hubert Krivine  : Je commence par la question la plus facile : quelle différence y a-t-il entre prévoir et prédire ? A priori, moi je n’en fais aucune. Mais il y a un prof de français ici, on va lui demander. [M. G. : « La même différence qu’entre voir et dire »]. Ah, ben oui.

Quant aux mythes, j’ai écrit un bouquin sur les mythes de la Terre. La machine n’a pas de mythe.

Sur le QI : certains pensent que l’intelligence humaine se définit par la capacité à passer les tests de QI. C’est un peu la même idée que le test de Turing : on ne définit pas l’intelligence humaine, ni celle de la machine.

Si on comprenait comment marche le cerveau humain, pourrait-on faire de l’IA forte ? Oui, certainement. La compréhension de ce qu’est un neurone humain a eu une certaine importance dans la conception des neurones artificiels, et inversement ; pas de doute que ces deux développements sont un peu parallèles. Mais il y a infiniment loin d’un neurone artificiel à un neurone humain. Même chose quand on parle de mémoire : on dit que ces machines ont une mémoire, que les hommes ont une mémoire… mais ça n’a strictement rien à voir ! L’exemple que je peux donner de plus simple c’est qu’une machine, quand vous l’éteignez, conserve sa mémoire mais ne l’améliore pas ; elle ne peut que la perdre. Un être vivant, quand il dort, sa mémoire travaille et s’améliore. C’est un fonctionnement complètement différent. La mémoire humaine est beaucoup plus plastique. Mais « mémoire » et « intelligence » ce sont les mêmes mots qu’on emploie, et c’est extrêmement trompeur.

« Quand on comprendra comment le cerveau fonctionne », dites-vous… ça ouvre une boîte de Pandore et ça n’en finit plus. Qu’est-ce que ça veut dire, « comprendre », dans cette phrase ? Si je vous dis : « Pourquoi les corps tombent ? – Parce que F = Km.m’ / d2 selon les équations de Newton que j’ai écrites au tableau et qui l’expliquent »… est-ce que c’est une explication, cela ? Et qu’est-ce qui explique cette loi de Newton ? Elle sort d’où ? Newton lui-même s’était posé la question : ça vient d’où ? C’est mystérieux. Alors un vieux monsieur va arriver, qui s’appelle Einstein et qui va dire : « Je vais vous expliquer d’où ça vient, cette loi mystérieuse de Newton : ça vient de la courbure de l’espace-temps. » Oui, mais on va lui dire : « D’où vient cette courbure de l’espace-temps ? » On n’en sort jamais. Mais n’empêche qu’on a beaucoup progressé. Depuis Ptolémée jusqu’à Newton, on a découvert des lois universelles, et plus encore depuis Einstein, avec des lois encore plus universelles !

Alors « comprendre » comment le cerveau marche, ça veut dire quoi ? Avoir des explications du type Newton ou Einstein ? Peut-être, mais il y a aussi d’énormes différences structurelles entre les milliards de neurones, y compris dans l’intestin, qui caractérisent un être humain et pas une machine. Je ne peux pas répondre à cette question… ou bien oui : quand on aura compris comment le cerveau humain fonctionne, on pourra faire de l’IA forte. Mais… quand ? Peut-être dans quelques milliards d’années seulement.

Quant à Deep Blue, il y a aussi le jeu de go. Le jeu d’échecs a un nombre restreint de parties possibles… enfin, restreint… de l’ordre de 10 puissance 150. (Le nombre d’atomes dans tout l’univers, c’est de l’ordre de 10 puissance 80). En revanche le jeu de go a 10 puissance 231 parties possibles, c’est délirant, c’est un nombre inimaginable ! Eh bien en 2016 la machine a gagné contre le champion du monde au jeu de go, avec un procédé un peu différent de la machine qui avait battu Kasparov en 1997. Mais si j’ose dire, tout ça est encore de l’IA faible. Elle est dédiée pour ça et elle a été très efficace.

Une intervention sur l’idée de corrélation.

Hubert Krivine : J’ai tendance à dire : les corrélations ne sont pas des causalités, point. La machine ne fera que des corrélations, à l’homme d’établir des causalités. Mais la machine peut faire mieux maintenant : elle peut déterminer dans certains cas quelles parties des corrélations sont causales, et lesquelles ne le sont pas.

Je vais te donner un exemple grossier, parce que j’aime bien les exemples grossiers : il y a une corrélation très forte entre les mouvements de l’aiguille du baromètre et la venue de l’orage. Mais on peut se demander si c’est pas le mouvement de l’aiguille qui crée l’orage. Après tout ! C’est une corrélation. Une façon de démontrer que c’est pas ça, c’est de faire bouger l’aiguille et de regarder si l’orage arrive. On voit que ça ne marche pas. Ça s’appelle une approche contrefactuelle. C’est un exemple grossier, mais on sait maintenant éliminer des éléments pour savoir ce qui est causal ou pas. Mais j’insiste : ce n’est pas une théorie.

Je n’ai pas assez développé la différence entre comprendre et expliquer. Exemple : on peut démontrer avec des corrélations intelligentes que l’aspirine fait baisser la température d’un malade. On fait des lots de malades, avec et sans aspirine, et on mesure leur température. On peut donc dire que l’aspirine est la cause de la baisse de température. Mais ça n’est pas une explication. Qu’est-ce qui fait que l’acide acétylsalicylique fait baisser la fièvre ? Pendant longtemps on n’a eu que de vagues idées, et je crois même qu’il reste encore des choses pas claires dans l’aspirine.

Les homéopathes nous disent : « Ah, mais vous aussi, dans la médecine officielle (comme ils disent) ou allopathique, vous aussi vous ne savez pas expliquer ! Alors ne nous reprochez pas de ne pas donner d’explication. » À une nuance près : dans la médecine allopathique, peut-être qu’on ne sait pas expliquer, mais on sait établir des causalités par des procédés tout à fait rigoureux. En faisant des lots de malades, avec aspirine, sans aspirine, etc. En médecine homéopathique, ils refusent qu’on fasse ce genre d’examen, avec l’argument que tous les malades étant différents il est impossible de faire des doubles aveugles. C’est une escroquerie intellectuelle évidente, parce que si c’était le cas, on ne voit pas comment l’homéopathie pourrait s’enseigner. S’ils enseignent l’homéopathie, c’est qu’ils ont des critères généraux pour dire que dans certains cas il faut faire ceci, et dans d’autres cela. Donc ils n’ont aucune raison de refuser les examens en double aveugle.

Une intervention [le même intervenant va reprendre la parole un peu plus bas] : Vous avez parlé du processus darwinien. Il y a les méthodes d’apprentissage supervisé et non supervisé, mais il y en a aussi une autre. On va créer des individus avec chacun des réseaux de neurones paramétrés très différemment, et juste les lancer dans un milieu, un environnement, et voir ceux qui sont les plus adaptés. C’est un processus très similaire à la sélection naturelle de Darwin, qui permet de sélectionner au fil des générations des réseaux de neurones et autres créations. Cette technique a-t-elle de l’avenir dans l’IA, à votre avis ?

Une intervention : L’IA ne procèderait-elle pas du même mouvement de civilisation que celui d’un homme qui se veut Dieu, et de cette fuite en avant vers toujours plus ? N’est-on pas à ce point de l’aventure humaine, de l’humanité globalisée avec une pensée unique qui est celle de la recherche de la performance, l’idée qu’on arrivera à trouver le fin fond de la vérité ? Est-ce que ce n’est pas un jeu au fond, un amusement, de discuter de causalité et de logique, de créer des technologies qui essayent d’imiter le cerveau, de faire jouer Big Blue contre Kasparov ? Jusqu’où ? Et cette pensée de l’illimité n’a-t-elle pas finalement des limites, qui sont vraiment triviales ?

Une interventionI : Vous abordez des thèmes passionnants. J’ai été surpris que vous n’ayez pas employé le mot d’algorithme. Ce terme déjà un peu usé permet de voir la mécanique, et de voir que les buts d’un programme informatique n’ont parfois pas grand-chose de commun avec le discours qui est affiché. Le mot « intelligence » pour qualifier certaines opérations qu’on fait avec les ordinateurs, c’est quand même un formidable coup marketing ! Depuis le début de l’informatique, c’est toujours plus beau et demain sera encore plus beau. Il y a toujours des opérations de valorisation de choses qui sont assez banales : augmenter la productivité, vendre plus, contrôler les populations ou de les manipuler avec un magnifique discours qui identifie la machine à l’intelligence humaine, la valorise, et par une opération de prestidigitation en fait quelque chose de magnifique, d’ininterrogeable, et l’on ne se pose plus la question de ce qui est cuisiné là-dessous.

Hubert Krivine : Sur l’apprentissage par renforcement, je ne suis pas du tout spécialiste de ça. J’ai juste entendu un exposé de LeCun, qui est vraiment le pape de cette question-là, et il n’y croit pas trop. Il dit bien sûr que c’est important, mais pour lui l’avenir est dans l’apprentissage non supervisé. Tu dis que l’apprentissage par renforcement ressemble un petit peu à un apprentissage de type darwinien… mais un petit peu seulement ! Ce qui me paraît important dans l’apprentissage darwinien, c’est le fait que la reproduction soit sexuée, ce qui brasse de façon colossale les possibilités de développement.

Une intervention [le même intervenant que ci-dessus] : On peut croiser ensemble les individus créés par le programme ; les plus performants auront des « enfants » et toute une population va évoluer, pas seulement un individu comme dans le cas du renforcement.

Hubert Krivine : Excuse moi, je suis largué, je ne comprends pas bien de quoi il s’agit.

Le même intervenant : C’est une technique qui consiste à simuler une population d’individus et non pas un seul ; ces « individus » sont des réseaux de neurones paramétrés différemment. Les plus performants vont être croisés entre eux et au cours des générations une amélioration va se produire, grâce à des mutations permettant la diversification.

Hubert Krivine : Oui, j’ai lu un peu là-dessus mais je ne peux pas répondre à ta question. Excuse-moi. Il faut attendre encore un peu.

Alors sur la dernière question : bien sûr, le mot « intelligence artificielle » est génial ! Ça veut dire que les décisions qui sont prises sont de type scientifique. Il n’y a rien à rétorquer : c’est comme 2 + 2 = 4. C’est une escroquerie totale !

Sur la remarque plus philosophique du collègue, c’est un problème plus général. Je l’éclairerai un peu différemment : depuis le Moyen-âge il y a un phénomène de désacralisation, ou de décentrage de l’homme, l’homme avec h minuscule. Ça a commencé avec Copernic qui a montré que l’homme n’est pas au centre de l’univers et qui l’a fait descendre de son piédestal. Ensuite il y a eu les savants du XVIIIe et du XIXe siècles, qui ont montré que la naissance de la vie humaine n’était pas du tout liée à la naissance de l’univers. Une autre façon de décentrer l’homme a été la découverte tout à fait récente qu’il y avait des femmes (on savait bien sûr qu’elles existaient, mais leur place dans l’espèce Homo sapiens n’était pas évidente ; tout à fait récemment on leur a même donné le droit de vote, quelle horreur !) On a découvert que les enfants existaient aussi, qu’ils pouvaient souffrir ; et même les animaux. Que les animaux pouvaient avoir une pensée en un certain sens, une compréhension. Et même que les plantes pouvaient communiquer entre elles.

Donc une série de barrières dans le vivant ont été abattues, plus ou moins, ou en tous cas transgressées. D’où l’idée que peut-être on pourrait aller plus loin, et abattre la frontière entre le vivant et l’inanimé. Et ce serait ça, l’IA : aller un cran plus loin.

Une intervention : On parle beaucoup du QI, mais qu’est-ce que c’est ? C’est un indice prédictif de réussite scolaire. Pas autre chose. Un monsieur qui s’appelle Gardner a écrit un livre intitulé Les Sept Formes de l’intelligence, et l’une d’entre elles est l’intelligence relationnelle. Beaucoup de nos dirigeants ont peut-être un QI développé, mais manquent un peu d’intelligence relationnelle.

Une intervention : La machine peut-elle un jour prendre conscience d’elle-même ? Et à ce moment-là peut-elle trouver un intérêt à se développer ? Mon autre question porte sur le transhumanisme : on sait que dans la Silicon Valley des gens font des recherches sur la possibilité de transférer la conscience dans un ordinateur. Alors peut-être qu’on n’arrivera jamais à faire une intelligence artificielle, mais qu’on arrivera à faire un corps artificiel qui contiendra une intelligence humaine.

Hubert Krivine : C’est la question de l’IA forte que tu poses. Moi, j’ai essayé de me poser la question : est-ce qu’on pourra faire une IA forte ? et ma réponse est : probablement pas. Je n’ai pas d’argument rationnel pour dire qu’on n’y arrivera jamais. Mon sentiment, qui n’est pas démontré, est qu’on y arrivera peut-être dans quelques milliards d’années ; mais je vous signale qu’à ce moment-là on ne sait pas où sera la Terre. Nous serons peut-être déjà cuits par le Soleil, ou éjectés aux confins de l’univers. À l’échelle des temps où on peut faire une prévision, non, je ne crois pas qu’on puisse réaliser une IA forte.

Prenez une goutte d’encre et mettez-la dans l’eau. Elle va se disperser dans l’eau. Vous n’avez aucun argument rationnel à opposer à l’idée qu’à un moment ou à un autre, les molécules d’encre réparties dans l’eau vont se ré-agglutiner en une goutte d’encre. Il n’y a aucun argument à opposer à cela ; n’empêche qu’on vous dira : c’est impossible. Impossible ! On peut faire le calcul, il n’est pas très compliqué, et démontrer qu’en moyenne il faudra attendre quelques milliards de milliards d’années pour voir ce phénomène se réaliser. Donc c’est pas impossible.

Il y a ainsi des choses théoriquement possibles, mais qu’on appelle à juste titre impossibles.

Supposez qu’à chaque lettre de l’alphabet soit associé un nombre : A = 01, B = 02, etc. Prenez le développement décimal de Pi : 3,159 etc. Et poursuivez ce développement décimal suffisamment loin… loin, loin… eh bien, vous allez recréer les œuvres complètes de Shakespeare. Avec leur traduction en albanais. Vous ne me croyez pas, mais c’est vrai.

Je vais vous convaincre de cela. Prenez un mot de deux lettres, par exemple le mot « si ». Vous comprenez très bien qu’à un moment, dans le développement décimal de Pi, on va trouver les deux lettres qui donnent « si ». On peut faire le calcul. Je crois qu’en 17 coups vous l’avez, ce mot de deux lettres. Prenez maintenant un mot de trois lettres, ce sera un peu plus long. Pour les œuvres de Shakespeare, il faut attendre n fois l’âge de l’univers, mais vous les obtiendrez.

Ce sont des probabilités qui sont mathématiquement non nulles, mais pratiquement nulles. Il me semble que l’IA forte est de cet ordre de grandeur-là. Mais je peux me tromper.

 

 

 

Laisser un commentaire

Nom
Adresse de contact
Site web