(J'avais déjà prévenu, donc le dernier message a été scindé ailleurs)
Et donc pour repartir sur la suite… on peut commencer par résumer la situation en disant que nous ne savons pas reconnaître l'intelligence, sans doute parce que nous ne savons pas franchement la définir.
C'est vrai pour l'intelligence en général, qu'on a tenté de mesurer de plein de manières différentes ces derniers siècles avec des résultats toujours assez douteux (le célèbre test de QI, par exemple, n'a de réel intérêt que dans son cadre spécifique, à savoir pour déterminer si un enfant est en avance ou en retard par à l'école rapport à sa classe d'âge, et devient très spéculatif lorsqu'il est utilisé ailleurs, mais si le sujet vous intéresse, je ne peux que recommander chaudement la lecture de
La Mal-Mesure de l'homme, de Stephen Jay Gould), et c'est encore plus vrai pour ce truc auquel la science-fiction nous a appris à penser chaque fois qu'il était question d'IA : la conscience.
À l'heure actuelle, aucun test fiable n'existe pour identifier si une machine est consciente ou pas, et ce notamment parce qu'il n'existe aucune définition de la conscience qui fasse complètement consensus, donc c'est un peu délicat d'aller plus loin. Mais il existe quand même quelques éléments de test à ce sujet qui visent les animaux, et ça peut être assez intéressant d'y jeter un œil.
Car les animaux sont capables d'apprentissage aussi, et parfois de conceptualiser des choses auxquelles on ne s'attendrait pas forcément. Par exemple, des scientifiques ont testé les capacités de comptage des abeilles avec un protocole relativement simple : deux plaques sur lesquelles sont disposées un certain nombre de points. Si l'abeille se pose sur la plaque contenant le moins de points, elle reçoit une petite friandise. Si elle se pose sur celle qui en a le plus, elle reçoit à la place une substance désagréable pour elle.
Il ne suffit que de quelques essais (et non pas des corpus de dizaines de milliers d'exemples comme pour nos réseaux de neurones artificiels) pour que l'abeille comprenne le principe et se dirige quasi-systématiquement vers la plus petite valeur. Mieux : si à un moment de l'expérience, on lui propose une plaque avec un seul point et une autre où il n'y en a simplement aucun, elle ira systématiquement vers la seconde, ce qui prouve qu'une abeille seule est capable de conceptualiser que « rien, c'est moins que un ».
Mais parmi tous ces tests qu'on fait passer aux animaux, il y en a un en particulier qui a acquis un statut assez particulier et qui peut nous éclairer pas mal sur notre rapport à la conscience : c'est le « test du miroir ».
Le principe est d'habituer un animal à la présence d'un miroir dans son environnement (ce qui peut déjà s'avérer complexe. Par exemple, on a déjà fait passer le test avec succès à des éléphants d'Asie, mais jamais à des éléphants d'Afrique… parce que toutes les tentatives jusque là se sont soldées par l'animal qui casse malencontreusement le miroir pendant les phases préparatoires, avant que le véritable test ne commence !), puis, pendant que l'animal dort, on lui trace une marque quelque part sur le corps, de sorte qu'il devrait la remarquer la prochaine fois qu'il passera devant le miroir en question.
L'idée est donc que, si l'animal a une réaction particulière, par exemple essayer de se frotter pour faire partir la marque en question, on va considérer qu'il dispose d'une conscience de son corps, passant par la reconnaissance de son reflet.
Évidemment, ce test a des limites, comme le fait de ne marcher que si l'animal utilise principalement la vue pour se reconnaître : les chiens, par exemple, se reconnaissent entre eux à l'odeur, donc baser le test sur un miroir est assez limitant, de base. Mais on a quand même réussi à tester ainsi, outre les éléphants sus-mentionnés, tous nos cousins les grands singes⁽¹⁾, les dauphins, et plusieurs espèces d'oiseaux. Et puis, plus récemment, on a testé des poissons.
En l'occurrence, les labres nettoyeurs, une espèce de poissons avec une vie sociale assez complexe et des capacités à certains tests analytiques qui explosent magistralement celles des humains (sérieux, ce serait un peu trop longs de vous détailler ça ici, mais ils se tapent des
high scores à des tests à base de contenus proposés à des fréquences particulières pour lesquels un certain nombre d'entre nous auraient besoin de relire plusieurs fois les règles, ce qui est d'ailleurs cohérent avec leur mode de vie) ont été testés en 2019, et on réussi le test de manière franchement indiscutable.
Et cette publication de 2019 a reçu, dans la littérature scientifique, une réponse critique d'un dénommé Gordon Gallup, qui n'est ni plus ni moins que la personne qui a conçu le test du miroir. Qui proposait, dans sa réponse, plusieurs hypothèses alternatives pour essayer tant bien que mal d'expliquer comment ces animaux auraient pu
sembler réussir ce test sans pour autant avoir de conscience d'eux-mêmes.
Le
concepteur du test a préféré envisager que son test pourrait ne pas marcher, plutôt que d'accepter que des poissons soient dotés de conscience. Et je pense que cette petite anecdote en dit beaucoup sur nos réactions face à ChatGPT et compagnie : notre reconnaissance de la conscience dépend de nos attentes subjectives bien plus que de réels critères objectifs. Et puisque notre culture actuelle baigne dans plein de récits de sciences fictions dans lesquelles des machines peuvent conscientes, mais accordent assez peu cette capacité au reste du monde vivant, il nous est plus facile d'imaginer qu'un truc qui produit du bon baratin est conscient que d'accepter que des animaux assez exotiques le soient.
Ceci dit, le fait de prêter des capacités aberrantes à une machine n'a pas attendu l'essor de la science fiction, puisque, tant qu'à remonter dans les exemples plus datés que ce à quoi on s'attendrait, on peut peut-être parler un peu ici du Turc mécanique.
Il s'agissait d'une sorte de grosse commode pleine d'engrenages et surmontée d'un plateau d'échec et d'un buste humain portant un turban (d'où son nom) qui a commencé à faire parler d'elle en 1770. L'objet était présenté comme un automate capable de jouer aux échecs, et il a gagné quelques parties contre de bons joueurs de l'époque. Les automates étaient particulièrement à la mode à ce moment, et il semble que pas mal de gens de l'époque aient vraiment cru qu'il s'agissait d'une machine capable de jouer aux échecs de façon autonome, plus de deux siècles avant le match entre Deep Blue et Kasparov.
En réalité, vous vous en doutez, ce n'était qu'une mystification : les engrenages ne remplissaient pas toute la commode, mais laissaient un espace suffisant pour qu'un être humain s'y cache, avec quelques jeux de miroirs pour lui permettre de voir le plateau d'échec et donc de contrôler les bras de la machine en fonction. N'empêche que ça fait donc plus de deux cent ans qu'on est capable de se faire avoir sur ce dont est réellement capable une machine.

- Planche de Gaston Lagaffe (issue du Bureau des Gaffes en Gros (R2), page 19) probablement inspirée de l'histoire du Turc mécanique.
- bd_gaston.jpg (61.69 Kio) Vu 176 fois
Alors, la situation actuelle n'est pas non plus franchement étonnante, d'autant que le langage humain⁽²⁾ est à la base quelque chose d'assez complexe et pas très facile à faire gérer par une machine, au sens où un
algorithme capable de faire des phrases serait fichtrement complexe.
En fait, Alan Turing, un des pionniers de l'informatique, avait déjà formulé dès 1950 un test de reconnaissance de l'« intelligence » d'une machine en suggérant qu'on fasse communiquer (par écrit, pour simplifier) un expérimentateur avec d'un côté une machine, et de l'autre un être humain : si l'expérimentateur ne parvenait pas à déterminer lequel de ses deux interlocuteurs était l'être humain, alors on pourrait considérer la machine comme intelligente.
Le test de Turing a servi de référence pendant pas mal de temps, mais son intérêt est maintenant très fortement remis en cause (la fiction l'avait déjà fait avant la réalité, ceci dit : il me semble par exemple qu'un épisode de la série Numb3rs paru il y a plus de quinze ans parlait déjà d'un logiciel conçu uniquement pour passer le test de Turing et qui n'avait aucune forme d'intelligence par ailleurs.)
D'autres tests ont pu être proposés, chacun avec ses limites. Par exemple, le « test du café », attribué à Steve Wozniak, dit qu'on pourra considérer une machine comme intelligente quand on pourra la larguer dans une maison inconnue, et qu'elle arrivera à trouver la cuisine et à servir un café quel que soit le modèle de cafetière présent.
Évidemment, un tel test nécessiterait non seulement une forme d'intelligence, mais également des capacités motrices et d'interaction avec l'environnement, ce qui exclue de fait pas mal de machines… de la même façon que nos tests sur l'intelligence animale excluent facilement certains animaux, confer le cas du test du miroir et du chien mentionnés plus haut.
Notons d'ailleurs aussi que nos programmes de recherche d'une éventuelle intelligence extraterrestre, comme le SETI, cherchent avant tout à identifier celle-ci… par le fait qu'elle émettrait des signaux reconnaissables, ce qui nécessite tout un tas d'autres critères que seulement l'intelligence, dépendant ou non de la biologie des hypothétiques extraterrestres (une baleine, si intelligente soit-elle, aurait ainsi beaucoup de mal à construire un émetteur radio, à la fois parce qu'elle n'a pas de mains et parce que ça ne marcherait pas forcément sous l'eau).
Bref, le sujet de l'hypothétique conscience d'une IA risque fort de s'avérer assez complexe, d'autant qu'il y a encore une difficulté à prendre en compte, venue littéralement de la science fiction. Ceci dit, on a quand même quelques éléments testables sous la main. Mais comme ce post-ci est déjà particulièrement long, je détaillerai tout ça la prochaine fois !
(1) Je place ça en note parce que ça nous amène en dehors de ce dont il est question ici, mais il y a un cas assez particulier ici : celui du gorille. Les premiers gorilles à qui on a fait passer le test ont échoué. Mais des gorilles élevés en captivité à proximité des humains ont ensuite réussi. Il se trouve en effet que, dans la nature, les gorilles ont tendance à considérer le fait de se regarder dans les yeux comme un signe d'agressivité. Un gorille sauvage qui identifie la forme d'un autre gorille dans le miroir va donc détourner les yeux avant de reconnaître son propre reflet. Les gorilles ont donc la capacité à passer ce test, mais les gorilles sauvages y échouent pour des raisons
culturelles, ce qui quelque part dit aussi pas mal de choses sur la portées de ces tests et notre façon de concevoir les capacités cognitives.
(2) Mais vu que j'ai déjà fait une première note sur les capacités cognitives des gorilles, je ne résiste pas à l'envie d'en faire ici une deuxième en mentionnant que Koko, la première gorille à avoir réussi le test du miroir, était également capable de communiquer avec nous en langue des signes. L'éthologue Penny Patterson avait eu l'idée de la lui apprendre en remarquant que les gorilles ont déjà une manière de communiquer entre eux qui y ressemble pas mal.