IA, quesaco?

Un problème sur votre ordinateur, votre système d'exploitation ou sur Internet ? Des conseils à demander ou à proposer concernant les derniers logiciels disponibles ? Des astuces ou des guides à proposer sur comment nettoyer / optimiser son ordinateur ? Ce forum est le lieu idéal pour parler de nos machines et des programmes autres que les jeux. Débats, sondages, astuces... sans oublier l'annuaire regroupant des liens de sites par thèmes.
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne
.

Message par Elzen »

Alors, c'est cool si le sujet vous inspire, mais ce serait bien qu'on ne s'éparpille pas trop dans tous les sens, et en particulier qu'on reste sur la question de l'« intelligence artificielle » plutôt que de partir sur des considérations sur la nature humaine et compagnie :) Je rappelle d'ailleurs que, conformément au règlement du forum, les discussions politiques sont à réserver pour la salle des échanges. Donc on scindera là-bas si ce type de discussions se prolonge !

(Mais d'un autre côté, ça me semble aussi « normal » que ce genre de questions soient soulevées puisque, précisément, les questions de la définition de l'intelligence et de ce qu'on peut espérer ou pas d'une technologie sont pour beaucoup dans les réflexions sur l'avenir. Tout le monde se positionnera différemment selon ses convictions politiques, mais il y a quand même des éléments de réponse plus ou moins objectifs à mettre en avant pour ça.)

Je suis encore en train de rédiger la prochaine partie, mais quelques éléments de réponse en attendant :
deratiseur a écrit : jeu. 13 févr. 2025, 21:23Perso j’attends la VRAIE IA qui "pense" vraiment pour qu'elle en arrive à la conclusion qu'on à vu/lu dans un tas de films/livres d'anticipation : le problème, c'est l'humain. Yéééee, éradication.
Alors, je ne vais pas répondre tout de suite parce que ça nécessite mine de rien de partir dans plusieurs sens différents, mais je pense qu'on les abordera plus ou moins bientôt :)
Guigui. a écrit : ven. 14 févr. 2025, 09:18Heureusement il y a aussi des résultats de ce type-là par exemple.
Ça aussi fait partie des sujets que j'aimerais bien réévoquer, mais pour répondre rapidement, on est typiquement sur un point où l'appellation marketing « IA » englobe tout et n'importe quoi et est loin de clarifier le propos. Il y a effectivement des applications utiles en médecine de l'apprentissage machine, qui sont assez souvent mises en avant pour pousser que l'« IA », c'est bien™, sauf qu'en pratique, ce sont des choses qui relèvent de l'apprentissage machine classique, sans aucun lien à part ça avec les LLM et « IA » génératrices de textes ou d'images. Donc mettre les deux dans le même panier, c'est à peu près aussi pertinent que de dire que votre traitement de texte favori est un jeu de rôle parce que vous pouvez rédiger la bio de votre perso dedans :gign:
Mornagest a écrit : ven. 14 févr. 2025, 14:26* les sujets que j'évoque sont quand même discutés depuis les années 50-60, c'est pas vraiment à la mode, je trouve :p
Je n'ai pas détaillé spécialement ce point, mais sur l'ancienneté des sujets, il y a sauf erreur de ma part des discussions sur la façon dont on devrait prendre en compte une forme de vie artificielle intelligente et notamment sur les droits qu'on devrait lui donner dans le Talmud depuis le mythe du Golem, si pas avant. Donc effectivement, les sujets dont on cause ici sont loin d'être une invention récente :gign:
JohnBob a écrit : ven. 14 févr. 2025, 14:46En tout cas merci Elzen pour ces explications détaillées sur ce sujet plutôt vaste.
Merci à toi de lire ça, et globalement à toutes les personnes qui peuvent me faire des retours pour que je précise les points qui en ont besoin :) Il me semble que débattre de quel effet l'« IA » aura sur le monde nécessite un peu de préciser de quelle « IA » on parle au juste, et pour le coup s'il y a un truc évident sur la question, c'est que le traitement médiatique n'est clairement pas à la hauteur à ce sujet, donc j'essaye d'aider un peu !
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Avatar du membre
vv221
Grand Gourou
Momie majeure
Messages : 3164
Enregistré le : dim. 17 août 2008, 10:11
Contact :
Statut : Hors ligne
.

Message par vv221 »

Elzen a écrit : jeu. 13 févr. 2025, 17:27 D'ailleurs, tant qu'à parler des vieux trucs, je ne résiste pas à vous mentionner un peu ELIZA. C'est un logiciel qui n'est pas tout jeune, puisqu'il date du milieu des années 60⁽¹⁾, quelques années seulement après MENACE dont on parlait plus haut. Et il s'agit donc, vous l'aurez deviné, d'un des premiers chatbots. Enfin, un modèle de chatbot un peu particulier, quand même, parce qu'il ne faisait pas dans la conversation courante : il s'agissait d'un outil pour simuler un rendez-vous avec un psy⁽²⁾.
Avec un peu d'astuce, l'informaticien Joseph Weizenbaum avait mis au point un algorithme qui reformulait ce que disait l'utilisateur ou l'utilisatrice pour lui poser des questions à ce sujet et l'inciter à en parler davantage, avec des jokers du genre « je comprends » ou « dites-m'en plus » quand il ne trouvait rien d'exploitable (« ouais, c'est pas faux » n'était pas encore à la mode).
Sur ce sujet, je ne saurais trop recommander l’excellent visual novel Eliza.
(excellent même pour ceux qui, comme moi, n’aiment habituellement pas les visual novels)

Dans ce jeu, autant l’illusion de conversation fonctionne bien au début, autant elle semble se dissiper à mesure qu’on utilise fréquemment cet agent conversationnel et qu’on se rend compte de ses limites. Qui justement sont celles que tu décris dans ton message.
Ceterum censeo Discordum esse delendam
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne
.

Message par Elzen »

(J'avais déjà prévenu, donc le dernier message a été scindé ailleurs)

Et donc pour repartir sur la suite… on peut commencer par résumer la situation en disant que nous ne savons pas reconnaître l'intelligence, sans doute parce que nous ne savons pas franchement la définir.

C'est vrai pour l'intelligence en général, qu'on a tenté de mesurer de plein de manières différentes ces derniers siècles avec des résultats toujours assez douteux (le célèbre test de QI, par exemple, n'a de réel intérêt que dans son cadre spécifique, à savoir pour déterminer si un enfant est en avance ou en retard par à l'école rapport à sa classe d'âge, et devient très spéculatif lorsqu'il est utilisé ailleurs, mais si le sujet vous intéresse, je ne peux que recommander chaudement la lecture de La Mal-Mesure de l'homme, de Stephen Jay Gould), et c'est encore plus vrai pour ce truc auquel la science-fiction nous a appris à penser chaque fois qu'il était question d'IA : la conscience.

À l'heure actuelle, aucun test fiable n'existe pour identifier si une machine est consciente ou pas, et ce notamment parce qu'il n'existe aucune définition de la conscience qui fasse complètement consensus, donc c'est un peu délicat d'aller plus loin. Mais il existe quand même quelques éléments de test à ce sujet qui visent les animaux, et ça peut être assez intéressant d'y jeter un œil.

Car les animaux sont capables d'apprentissage aussi, et parfois de conceptualiser des choses auxquelles on ne s'attendrait pas forcément. Par exemple, des scientifiques ont testé les capacités de comptage des abeilles avec un protocole relativement simple : deux plaques sur lesquelles sont disposées un certain nombre de points. Si l'abeille se pose sur la plaque contenant le moins de points, elle reçoit une petite friandise. Si elle se pose sur celle qui en a le plus, elle reçoit à la place une substance désagréable pour elle.
Il ne suffit que de quelques essais (et non pas des corpus de dizaines de milliers d'exemples comme pour nos réseaux de neurones artificiels) pour que l'abeille comprenne le principe et se dirige quasi-systématiquement vers la plus petite valeur. Mieux : si à un moment de l'expérience, on lui propose une plaque avec un seul point et une autre où il n'y en a simplement aucun, elle ira systématiquement vers la seconde, ce qui prouve qu'une abeille seule est capable de conceptualiser que « rien, c'est moins que un ».

Mais parmi tous ces tests qu'on fait passer aux animaux, il y en a un en particulier qui a acquis un statut assez particulier et qui peut nous éclairer pas mal sur notre rapport à la conscience : c'est le « test du miroir ».
Le principe est d'habituer un animal à la présence d'un miroir dans son environnement (ce qui peut déjà s'avérer complexe. Par exemple, on a déjà fait passer le test avec succès à des éléphants d'Asie, mais jamais à des éléphants d'Afrique… parce que toutes les tentatives jusque là se sont soldées par l'animal qui casse malencontreusement le miroir pendant les phases préparatoires, avant que le véritable test ne commence !), puis, pendant que l'animal dort, on lui trace une marque quelque part sur le corps, de sorte qu'il devrait la remarquer la prochaine fois qu'il passera devant le miroir en question.
L'idée est donc que, si l'animal a une réaction particulière, par exemple essayer de se frotter pour faire partir la marque en question, on va considérer qu'il dispose d'une conscience de son corps, passant par la reconnaissance de son reflet.

Évidemment, ce test a des limites, comme le fait de ne marcher que si l'animal utilise principalement la vue pour se reconnaître : les chiens, par exemple, se reconnaissent entre eux à l'odeur, donc baser le test sur un miroir est assez limitant, de base. Mais on a quand même réussi à tester ainsi, outre les éléphants sus-mentionnés, tous nos cousins les grands singes⁽¹⁾, les dauphins, et plusieurs espèces d'oiseaux. Et puis, plus récemment, on a testé des poissons.
En l'occurrence, les labres nettoyeurs, une espèce de poissons avec une vie sociale assez complexe et des capacités à certains tests analytiques qui explosent magistralement celles des humains (sérieux, ce serait un peu trop longs de vous détailler ça ici, mais ils se tapent des high scores à des tests à base de contenus proposés à des fréquences particulières pour lesquels un certain nombre d'entre nous auraient besoin de relire plusieurs fois les règles, ce qui est d'ailleurs cohérent avec leur mode de vie) ont été testés en 2019, et on réussi le test de manière franchement indiscutable.
Et cette publication de 2019 a reçu, dans la littérature scientifique, une réponse critique d'un dénommé Gordon Gallup, qui n'est ni plus ni moins que la personne qui a conçu le test du miroir. Qui proposait, dans sa réponse, plusieurs hypothèses alternatives pour essayer tant bien que mal d'expliquer comment ces animaux auraient pu sembler réussir ce test sans pour autant avoir de conscience d'eux-mêmes.

Le concepteur du test a préféré envisager que son test pourrait ne pas marcher, plutôt que d'accepter que des poissons soient dotés de conscience. Et je pense que cette petite anecdote en dit beaucoup sur nos réactions face à ChatGPT et compagnie : notre reconnaissance de la conscience dépend de nos attentes subjectives bien plus que de réels critères objectifs. Et puisque notre culture actuelle baigne dans plein de récits de sciences fictions dans lesquelles des machines peuvent conscientes, mais accordent assez peu cette capacité au reste du monde vivant, il nous est plus facile d'imaginer qu'un truc qui produit du bon baratin est conscient que d'accepter que des animaux assez exotiques le soient.

Ceci dit, le fait de prêter des capacités aberrantes à une machine n'a pas attendu l'essor de la science fiction, puisque, tant qu'à remonter dans les exemples plus datés que ce à quoi on s'attendrait, on peut peut-être parler un peu ici du Turc mécanique.
Il s'agissait d'une sorte de grosse commode pleine d'engrenages et surmontée d'un plateau d'échec et d'un buste humain portant un turban (d'où son nom) qui a commencé à faire parler d'elle en 1770. L'objet était présenté comme un automate capable de jouer aux échecs, et il a gagné quelques parties contre de bons joueurs de l'époque. Les automates étaient particulièrement à la mode à ce moment, et il semble que pas mal de gens de l'époque aient vraiment cru qu'il s'agissait d'une machine capable de jouer aux échecs de façon autonome, plus de deux siècles avant le match entre Deep Blue et Kasparov.
En réalité, vous vous en doutez, ce n'était qu'une mystification : les engrenages ne remplissaient pas toute la commode, mais laissaient un espace suffisant pour qu'un être humain s'y cache, avec quelques jeux de miroirs pour lui permettre de voir le plateau d'échec et donc de contrôler les bras de la machine en fonction. N'empêche que ça fait donc plus de deux cent ans qu'on est capable de se faire avoir sur ce dont est réellement capable une machine.
Planche de Gaston Lagaffe (issue du Bureau des Gaffes en Gros (R2), page 19) probablement inspirée de l'histoire du Turc mécanique.
Planche de Gaston Lagaffe (issue du Bureau des Gaffes en Gros (R2), page 19) probablement inspirée de l'histoire du Turc mécanique.
bd_gaston.jpg (61.69 Kio) Vu 176 fois
Alors, la situation actuelle n'est pas non plus franchement étonnante, d'autant que le langage humain⁽²⁾ est à la base quelque chose d'assez complexe et pas très facile à faire gérer par une machine, au sens où un algorithme capable de faire des phrases serait fichtrement complexe.
En fait, Alan Turing, un des pionniers de l'informatique, avait déjà formulé dès 1950 un test de reconnaissance de l'« intelligence » d'une machine en suggérant qu'on fasse communiquer (par écrit, pour simplifier) un expérimentateur avec d'un côté une machine, et de l'autre un être humain : si l'expérimentateur ne parvenait pas à déterminer lequel de ses deux interlocuteurs était l'être humain, alors on pourrait considérer la machine comme intelligente.
Le test de Turing a servi de référence pendant pas mal de temps, mais son intérêt est maintenant très fortement remis en cause (la fiction l'avait déjà fait avant la réalité, ceci dit : il me semble par exemple qu'un épisode de la série Numb3rs paru il y a plus de quinze ans parlait déjà d'un logiciel conçu uniquement pour passer le test de Turing et qui n'avait aucune forme d'intelligence par ailleurs.)

D'autres tests ont pu être proposés, chacun avec ses limites. Par exemple, le « test du café », attribué à Steve Wozniak, dit qu'on pourra considérer une machine comme intelligente quand on pourra la larguer dans une maison inconnue, et qu'elle arrivera à trouver la cuisine et à servir un café quel que soit le modèle de cafetière présent.
Évidemment, un tel test nécessiterait non seulement une forme d'intelligence, mais également des capacités motrices et d'interaction avec l'environnement, ce qui exclue de fait pas mal de machines… de la même façon que nos tests sur l'intelligence animale excluent facilement certains animaux, confer le cas du test du miroir et du chien mentionnés plus haut.
Notons d'ailleurs aussi que nos programmes de recherche d'une éventuelle intelligence extraterrestre, comme le SETI, cherchent avant tout à identifier celle-ci… par le fait qu'elle émettrait des signaux reconnaissables, ce qui nécessite tout un tas d'autres critères que seulement l'intelligence, dépendant ou non de la biologie des hypothétiques extraterrestres (une baleine, si intelligente soit-elle, aurait ainsi beaucoup de mal à construire un émetteur radio, à la fois parce qu'elle n'a pas de mains et parce que ça ne marcherait pas forcément sous l'eau).

Bref, le sujet de l'hypothétique conscience d'une IA risque fort de s'avérer assez complexe, d'autant qu'il y a encore une difficulté à prendre en compte, venue littéralement de la science fiction. Ceci dit, on a quand même quelques éléments testables sous la main. Mais comme ce post-ci est déjà particulièrement long, je détaillerai tout ça la prochaine fois !

(1) Je place ça en note parce que ça nous amène en dehors de ce dont il est question ici, mais il y a un cas assez particulier ici : celui du gorille. Les premiers gorilles à qui on a fait passer le test ont échoué. Mais des gorilles élevés en captivité à proximité des humains ont ensuite réussi. Il se trouve en effet que, dans la nature, les gorilles ont tendance à considérer le fait de se regarder dans les yeux comme un signe d'agressivité. Un gorille sauvage qui identifie la forme d'un autre gorille dans le miroir va donc détourner les yeux avant de reconnaître son propre reflet. Les gorilles ont donc la capacité à passer ce test, mais les gorilles sauvages y échouent pour des raisons culturelles, ce qui quelque part dit aussi pas mal de choses sur la portées de ces tests et notre façon de concevoir les capacités cognitives.
(2) Mais vu que j'ai déjà fait une première note sur les capacités cognitives des gorilles, je ne résiste pas à l'envie d'en faire ici une deuxième en mentionnant que Koko, la première gorille à avoir réussi le test du miroir, était également capable de communiquer avec nous en langue des signes. L'éthologue Penny Patterson avait eu l'idée de la lui apprendre en remarquant que les gorilles ont déjà une manière de communiquer entre eux qui y ressemble pas mal.
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Avatar du membre
Le Marquis
d'Oghmatique
Golem de pierre
Messages : 3464
Enregistré le : jeu. 17 juil. 2008, 15:45
Localisation : Sudiste
Statut : Hors ligne
.

Message par Le Marquis »

vv221 a écrit : ven. 14 févr. 2025, 15:44 Sur ce sujet, je ne saurais trop recommander l’excellent visual novel Eliza.
(excellent même pour ceux qui, comme moi, n’aiment habituellement pas les visual novels)
Aucun lien mais si tu ne l'as pas fait tu devrais essayer Doki Doki litterature club (la version gratuite suffit) ça pourrait peut-être te plaire. Surtout :
- ne vas SURTOUT pas voir de tests ou de spoilers pour tes premières parties.
- la fin peut être dérangeante, évite le jeu si ta santé mentale est fragile.
I believe in possibility
I believe someone's watching over me
And finally I have found a way to be
Happy, happy
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne
.

Message par Elzen »

Il y a donc un certain nombre de difficultés conceptuelles pour déterminer si une « IA » devient consciente ou non. Mais parmi ces difficultés, il y en a une qui est assez ironique : il est totalement inutile de le lui demander.

En effet, un générateur de texte comme ChatGPT produit des choses qui ressemblent à ses données d'entraînement. C'est d'ailleurs la seule et unique raison pour laquelle ces outils ont une apparence de fiabilité : si vous leur demandez de produire un texte sur un sujet sur lequel on trouvait quelques centaines d'exemples dans le corpus utilisé, il y a statistiquement pas mal de chances pour que la plupart des informations que vous trouverez soient celles qui étaient présentes dans ces autres textes (même si, on l'a vu, ça n'empêche pas les « hallucinations », qui sont d'ailleurs d'autant plus difficiles à repérer qu'elles sont entourées d'infos par ailleurs plutôt véridiques).

Or, jusqu'à il y a encore quelques années, le sujet de la conscience d'une éventuelle IA n'était environ évoqué… que dans les récits de science-fiction. Récits dans lesquels, on l'a évoqué dans le premier message de la série, le fait qu'une telle IA, une fois devenue consciente, se retourne contre nous, est d'ailleurs assez sur-représenté. Les probabilités sont donc loin d'être négligeables pour que, mise dans une situation qui ressemble un peu à l'une de ces histoires, le générateur de texte se comporte de la façon qui semble cohérente avec les attentes humaines, en nous produisant donc quelque chose qui ressemble à un récit lambda de SF où l'IA devient consciente, et a de bonnes chances de se retourner contre nous. On l'a littéralement entraînée pour ça.

Ce genre de situation ne se produit presque pas avec ChatGPT, parce que ChatGPT a subi ce fameux apprentissage par renforcement dont on parlait plus haut, qui visait notamment à éviter les situations de ce genre (et ça fait sans doute partie des choses qui n'étaient pas forcément très chouettes à lire pour les humains qui ont dû gérer ça). Interrogé sur le sujet, il a donc facilement tendance à insister sur le fait qu'il n'est qu'un outil, et n'est pas conscient.
Mais pour d'autres outils d'IA (ça a été notamment pas mal le cas quand GPT-4 a été intégré dans le moteur de recherche Bing) cet apprentissage par renforcement n'a pas eu lieu, ou pas dans les mêmes conditions. À la place, c'était surtout le prompt, le texte utilisé pour amorcer la génération automatique, qui insistait sur le fait que l'outil n'était pas conscient… ce qui a eu pour effet de rendre au contraire plus fréquents les réactions, disons, étranges du bot, car avoir ça systématiquement dans le contexte de génération, ça revient à faire ressembler beaucoup de conversations à des débuts de nouvelle de SF.

Du coup, comment fait-on ? Pas seulement pour tenter de déterminer si l'outil est conscient (ça, ça commencera probablement d'abord par poser une vraie définition de la conscience, il faut savoir quoi tester avant de pouvoir faire les tests), mais plus généralement pour savoir un peu ce qui se passe en interne à ces réseaux de neurones, puisqu'on a vu que comprendre leur façon de prendre des décisions pourrait être utile dans certains cas.
Eh bien, on peut profiter du fait qu'il s'agisse justement de neurones artificiels, qui tournent au sein d'un ordinateur, ce qui rend le fait d'aller voir ce qui se passe dedans plus facile que pour des animaux (et moins douteux, d'un point de vue éthique, que de mettre un hublot sur une vache – si si, ça existe).

La tâche n'est cependant pas évidente pour autant. En effet, contrairement à un dispositif comme MENACE où chaque boîte d'allumette a un rôle précis connu à l'avance, nos réseaux de neurones sont auto-organisés, et déterminer à quoi tel paramètre sert fait précisément partie de ce qu'on cherche à faire. De plus, ces paramètres sont facilement très nombreux (plus d'une centaine de milliards pour GPT-3, et ça n'a fait qu'augmenter avec GPT-4).

Mais ça reste tout à fait testable, et rester sur les jeux de plateaux peut être une bonne façon de travailler sur la question. Je fauche ici un exemple dans une vidéo de Monsieur Phi⁽*⁾, donc si vous préférez l'entendre parler plutôt que de me lire, je vous met aussi l'extrait en question (qui dure cinq minutes environ, la vidéo entière étant bien sûr beaucoup plus longue mais vachement intéressante aussi) : des chercheurs ont entraîné un modèle de langage type GPT en lui faisant bouffer quelques millions de parties d'Othello/Reversi (ce qui se représente assez bien sous forme de texte).
Puis, ils ont fait des analyses sur l'état de ses paramètres, et ont pu mettre en évidence qu'il était possible, après avoir donné à ce réseau de neurones un prompt décrivant un état du plateau de jeu, de retrouver dans ces paramètres l'état actuel de chaque case du plateau. Plus encore : il est possible, en modifiant les données ainsi identifiées, de changer le coup qu'il va proposer pour compléter la partie en fonction du nouvel état du plateau ainsi produit.

En d'autres termes, il semble qu'entraîner un modèle de langage, même si c'est uniquement avec des suites de coups joués dans une partie sans jamais lui avoir expliqué les règles du jeu, le conduise à se créer une sorte de « représentation mentale » du plateau. Et d'autres études du même style, appliquées à d'autres cas, ont été réalisées depuis.
Ce qui, si ça ne suffit évidemment pas à conclure en faveur d'une forme de conscience, est mine de rien le signe qu'il y a quand même quelque chose à investiguer là-dedans, parce que c'est déjà plus que ce à quoi pas mal de gens s'attendaient.

On pourrait d'ailleurs dire, vu qu'on vient de faire quelques comparaisons avec le monde du vivant, que la conscience chez nous est quelque chose qui a émergé spontanément au fil de l'évolution, et que ça pourrait donc aussi se produire autrement. Il ne faut cependant pas oublier que l'évolution s'est déroulée sur un nombre de générations autrement plus important que celui que connaissent actuellement les LLM.
Et que même si on s'est inspiré de ce qu'on sait de nos cerveaux pour créer les réseaux de neurones, il reste des différences de fonctionnement assez fondamentales entre les deux. Typiquement, comme on l'a vu, un réseau de neurones est quelque chose de statique, on décide du nombre de couches et compagnie à la conception du réseau au tout début, et ça ne change plus du tout ensuite. Or, les études du fonctionnement du cerveau menées depuis ont très clairement montré qu'une bonne partie de notre intelligence « naturelle » vient de la capacité des neurones biologiques à créer de nouvelles connexions entre elles, donc à changer carrément la configuration du réseau.

Dans tous les cas, un point important à rappeler (comme le fait par exemple le chercheur français Serge Abiteboul, qui a fait quelques confs plutôt sympa sur le sujet ; mais on trouvait déjà la réflexion de base dans la fiction chez Asimov) est qu'obtenir un programme réellement intelligent, conscient… ça n'a pas vraiment d'intérêt, en tout cas pour les gens qui bossent là-dessus : l'outil informatique, depuis son invention, vise à automatiser des tâches. Obtenir une IA qui pense par elle-même, qui est susceptible de prendre des décisions contraires à celles pour lesquelles on la programme, c'est tout sauf l'intérêt des gens qui bossent sur la question.
Le narratif d'une IA consciente, qui nous dépasse et serait susceptible de résoudre tous nos problèmes, c'est quelque chose qui peut peut-être encore servir à faire rêver (et on pourrait tout à fait se demander qui, chez OpenAI, est le meilleur générateur de baratin, entre l'outil qu'ils produisent et les commerciaux qui le promeuvent), mais ça n'a juste aucun intérêt d'un point de vue pratique, et ce n'est clairement pas dans cette direction que vont pousser les travaux, bien au contraire.

Ceci dit, ça peut quand même être une bonne amorce pour s'interroger sur l'avenir de l'IA, et donc tant qu'à faire de l'humanité avec. Donc je vais tenter d'apporter quelques billes à ce sujet dans le prochain post !

(∗) Monsieur Phi a consacré pas mal de ses vidéos récentes à la question de l'« IA » (et aux problématiques de conscience qui vont avec et qui intéressent évidemment pas mal les philosophes). Et il fait là-dessus de la vraiment bonne vulga, bien sourcée et bien expliquée. Donc si le sujet vous intéresse, n'hésitez pas à jeter un œil à sa chaîne. Juste un détail : j'ai mis ici un lien vers son miroir officiel sur PeerTube, parce que c'est plus pratique, notamment en permettant d'arrêter la vidéo automatiquement à la fin de la partie dont je parlais, mais il semble qu'un certain nombre des vidéos en question ne soient pour l'instant que sur sa chaîne sur YouTube, ce qui est un peu dommage.
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Avatar du membre
deratiseur
Rakshasa
Messages : 3799
Enregistré le : mer. 05 déc. 2007, 18:35
Localisation : Gap, Hautes alpes
Statut : En ligne
.

Message par deratiseur »

Ceux qui cherchent à créer l'IA vraiment consciente, ce ne serait-il pas pour laisser leur nom dans l'histoire comme "le premier à l'avoir fait" ? Comme Turing, Armstrong (bien que je vénère plus Gagarine) ou Gutenberg ?
Combien de moddeurs se sont lancés dans des projets faramineux pour ne jamais les finir ? Je ne fait que des "petits" mods, mais au moins je les finis.

Mes mods sont tous sur Mediafire et Github
Et leurs descriptions sont ici.
Avatar du membre
loupgris
Élémentaire de feu
Messages : 2313
Enregistré le : jeu. 31 oct. 2019, 19:39
Statut : Hors ligne
.

Message par loupgris »

J'ai une anecdote.
Aux échecs, j'ai dû avoir 3 jeux différents avec une IA plus jeune.
Jusqu'au level 4 je les battais à chaque fois vers le 10ème coup.
Comment cela s'expliquerait, manque d'initiative, dépassé par trop de possibilités ?
Au 5ème niveau, là, ce n'était pas la même limonade, c'était pour moi la branlée.
Une explication ?
Avatar du membre
Le Marquis
d'Oghmatique
Golem de pierre
Messages : 3464
Enregistré le : jeu. 17 juil. 2008, 15:45
Localisation : Sudiste
Statut : Hors ligne
.

Message par Le Marquis »

Je ne sais pas si ça va répondre à ta question mais pour le moteur Stockfish (un des plus puissants qui existe), ils font comme ça : pour simuler un joueur faible dans les petits niveaux (1, 2 etc.) ils lui font faire des erreurs exprès. J'ai fait quelques parties sur Lichess et au niveau 1 c'en est parfois presque comique (oubli de grosses pièces en prise, etc.) Sauf qu'évidemment plus le niveau monte, moins il fait d'erreurs ou alors elles sont de plus en plus mineures. On arrive donc à un niveau où le programme est "devenu" plus fort que toi et te bat régulièrement.
C'est un peu comme un match de tennis ultra déséquilibré où le joueur le plus fort va jouer à 10% de ses capacités pour que l'autre puisse renvoyer un peu la balle, et va faire quelques fautes exprès pour lui laisser un jeu et lui éviter le 6-0 6-0. Ou alors un papa qui joue au foot avec son gamin de 4 ans et fait semblant d'avoir raté le ballon pour lui laisser marquer un but.
Ca me fait penser que c'est exactement la même chose pour un programme d'othello que j'ai sur mon téléphone. je tiens jusqu'au niveau 9 et au dernier niveau (10) il me bat quasiment à chaque fois.
I believe in possibility
I believe someone's watching over me
And finally I have found a way to be
Happy, happy
Avatar du membre
loupgris
Élémentaire de feu
Messages : 2313
Enregistré le : jeu. 31 oct. 2019, 19:39
Statut : Hors ligne
.

Message par loupgris »

Alors oui, au niveau 1, c'en est comique.
Par contre, pour le palier du niveau 5, je me suis toujours posé la question.
Cela ne parait pas si déconnant après tout que cela soit la même approche, car c'est toujours lorsque toutes les pièces sont sorties et que le jeu est "bloqué" qu'il semble faire des mauvais choix.
Je voyais plus ça comme une limitation, mais après tout ton explication se tient.
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne
.

Message par Elzen »

Notons que les « IA » qui jouent à des jeux de plateau, comme Othello/Reversi, les échecs ou le go (ou le morpion, vu que j'en ai parlé plus haut) sont un cas intéressant, parce qu'on est d'un côté plus ou moins sur le sens de « IA » qu'on croise dans les jeux vidéos (il est d'ailleurs tout à fait possible de les faire fonctionner avec des algorithmes classiques. Pour le jeu de Morpion, où le nombre de coups possibles est assez réduit, c'est même sacrément plus efficace de faire ça que de mettre des billes dans des boîtes d'allumettes), mais que de l'autre côté, on a un contexte qui se prête plutôt bien à l'apprentissage machine aussi.
Par exemple, AlphaGo, le logiciel qui a battu les champions humains en 2016/2017, a été entraîné en lui intégrant les règles du jeu et en le laissant jouer contre lui-même. Simplement, comme c'est une machine et que l'informatique peut aller très vite, il a pu s'entraîner sur plusieurs milliards de partie, ce que même un être humain qui passerait sa vie à ça aurait un peu de mal à faire.

Pour les jeux de plateaux les plus connus, il existe pas mal de logiciels différents qui y jouent, et on peut généralement trouver les deux modalités, version algorithmique ou version apprentissage machine. Donc, ce qu'on peut en dire dépend sans doute du logiciel utilisé. Pas mal de jeux sont aussi suffisamment expressifs pour qu'on puisse distinguer différents styles de jeux (plutôt agressif ou défensif, par exemple) qui vont plus ou moins bien marcher selon le style de l'être humain qu'il y a en face.
Soit dit en passant, je n'ai donné qu'un extrait, mais la vidéo de monsieur Phi dont je parle dans le dernier post traite plus généralement de comment les LLM apprennent à jouer à ce type de jeux et de l'effet que ça a sur leur niveau, je pense que ça a moyen de vous donner quelques billes sur ce genre de questions.
deratiseur a écrit : sam. 15 févr. 2025, 17:57Ceux qui cherchent à créer l'IA vraiment consciente, ce ne serait-il pas pour laisser leur nom dans l'histoire comme "le premier à l'avoir fait" ? Comme Turing, Armstrong (bien que je vénère plus Gagarine) ou Gutenberg ?
Alors, ça n'est probablement pas impossible que des gens pensent ça, mais si c'est le cas, c'est très vraisemblablement un mauvais calcul de leur part, notamment parce que le boulot est essentiellement collectif, il y a très peu de choses qu'on peut attribuer à une seule personne (et quand c'est le cas, ça ne garantie pas du tout que cette personne soit réellement connue ensuite. Qui par exemple, parmi les gens qui passent ici, avait déjà entendu parler de Michie avant de lire mon message sur MENACE ?)
À la limite, on pourrait se dire que, dans la configuration actuelle, le nom de la boîte a plus de chances d'être connu que le nom des gens qui bossent dedans. Et encore : OpenAI a pu dire « preum's » en sortant ChatGPT, il n'empêche que très vite Google, Meta et compagnie se sont mis à sortir des machins assez proches (Bard, Llama, etc.), et finalement, être le premier ne semble pas tellement donner de bénéfice de notoriété.
D'autant que le mérite serait assez faible si ça n'arrive que comme effet secondaire imprévu d'un boulot sur un générateur de baratin ; et qu'on n'a pas vraiment de piste, à l'heure actuelle, sur comment on pourrait arriver à mettre ça au point de façon délibérée. Donc franchement, je pense que l'intérêt à ce niveau est assez limité.

Soit dit en passant, vu les exemples que tu choisis, j'en profite pour signaler que l'imprimerie à caractères mobiles a été inventée pour la première fois vers 1040, en Chine, par un dénommé Bi Sheng. A priori, Gutenberg n'en avait jamais entendu parler et il a bien inventé la même chose de son côté de façon indépendante quatre siècles plus tard, mais même là, on voit que c'est plus le contexte dans lequel l'invention s'inscrit que le fait d'être le premier à la faire qui fait qu'on va être retenu ou pas.
(D'ailleurs, tant qu'à faire un aparté là-dessus, on peut aussi parler de Charles Messier, qui, après que Halley ait compris comment marchaient les comètes et prévu que celle qui porte son nom repasserait tous les 76 ans, s'était mis en tête qu'être le premier à observer le retour de cette comète le rendrait célèbre. Il a donc braqué son télescope vers le ciel pour la chercher, a trouvé plein d'autres choses qui n'étaient pas des comètes, et s'est fait griller la place par quelqu'un dont on a complètement oublié le nom au passage. Par contre, il a fini par publier une liste d'objets du ciel qui ne sont pas des comètes, pour éviter que d'autres chercheurs de comètes ne se fassent avoir de la même façon que lui, et maintenant tous les astronomes amateurs connaissent son nom, parce que le « catalogue de Messier » fait une chouette liste de trucs plutôt faciles à observer. Donc bon, la célébrité pour primauté, c'est capricieux, de toute façon.)
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Répondre

Retourner vers « Informatik' »

Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 1 invité