IA, quesaco?

Un problème sur votre ordinateur, votre système d'exploitation ou sur Internet ? Des conseils à demander ou à proposer concernant les derniers logiciels disponibles ? Des astuces ou des guides à proposer sur comment nettoyer / optimiser son ordinateur ? Ce forum est le lieu idéal pour parler de nos machines et des programmes autres que les jeux. Débats, sondages, astuces... sans oublier l'annuaire regroupant des liens de sites par thèmes.
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne

IA, quesaco?

.

Message par Elzen »

Hej, les gens ! o/

Dans une discussion récente sur la chatbox, on s'est dit que comme ça causait beaucoup d'intelligence artificielle ces derniers temps, et que ça a littéralement été mon dernier boulot d'expliquer ce que c'est et comment ça marche, je pouvais poser là quelques bouts d'explications pour les gens que ça intéresse. Il y a un certain nombre de choses à dire, mais je me suis dit que je pouvais faire ça sous la forme d'une série de posts pas trop trop gros pour que ce ne soit pas trop rébarbatif à lire. Donc voilà, je vais poster ça ici au fur et à mesure, et vous pourrez intervenir si un truc n'est pas clair ou autre.

Pour s'y retrouver, voici (mise à jour au fur et à mesure) la liste des messages de votre MOOC Intelligence Artificielle spécial Couronne de Cuivre ! :)

Étape 1 : les trois intelligences.
Étape 2 : c'est dans la boîte !
Étape 3 : neurones artificiels : qui sont-ils ? Quels sont leurs réseaux ?
Étape 4 : attentes VS réalité
Étape 5 : générateur de baratin
Étape 6 : cas de conscience
Étape 7 : modèles
Modifié en dernier par Elzen le sam. 15 févr. 2025, 17:01, modifié 7 fois.
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne
.

Message par Elzen »

On parle beaucoup d'intelligence artificielle en ce moment, mais on explique rarement de quoi il s'agit. Ce qui est un peu dommage étant donné la quantité de trucs différents que ça recouvre. Donc, ça pourrait valoir le coup qu'on fasse un peu le point ici. La première des confusions vient du fait que ces deux mots sont utilisés pour décrire trois grandes familles de sens assez différents l'une de l'autre. Donc commençons par là.

À la base, je pense que je ne vous apprendrai pas grand chose là-dessus, une « intelligence artificielle », c'est un concept de (science-)fiction, qui désigne une machine dotée d'une conscience et d'une volonté propre. C'est même devenu un gros cliché du domaine que l'être artificiel se rebelle contre ses créateurs et affronte l'humanité (Asimov appelait ça le « complexe de Frankenstein », en référence à la créature inventée par Mary Shelley dont on pourrait se demander si l'intelligence (de la créature, hein, pas de Shelley) était qualifiable d'« artificielle » ou pas, mais ce n'est pas l'objet principal de ce post).
Cependant, il existe aussi dans la littérature pas mal de cas de machines autonomes plus amicales ou au moins plus neutres… et elles sont même historiquement les premières à être apparues, puisque, même si le focus n'était pas spécialement donné à la question de l'« IA » à l'époque, on en trouve quelques unes dans la mythologie (par exemple Talos (le géant qui gardait la Crète antique, rien à voir avec le dieu des Royaumes Oubliés) ou plus récemment le Golem de Prague)

Mais évidemment, la notion d'« IA » a commencé à devenir plus importante quand on a commencé à avoir des ordinateurs et à vouloir simuler pas mal de choses avec, notamment l'intelligence humaine. Le deuxième grand sens de ces deux mots est apparu avec un domaine qu'on connaît plutôt bien ici, celui des jeux vidéos. Ici, ça désigne à peu près tout ce qui va déterminer comment les PNJ vont se comporter exactement. Et c'est là qu'on arrive à une distinction qui va être particulièrement importante pour la suite : ce qui est algorithmique et ce qui ne l'est pas.
Un algorithme, c'est une suite d'instructions. Environ tout ce dont vous pouvez expliquer en détail comment ça marche peut être exprimé par un algorithme. Par exemple, dans nos bons vieux Baldur's Gate Ⅰ et Ⅱ, on pouvait associer un script à chacun des membres de notre équipe, pour leur dire par exemple de plutôt privilégier les armes à distances ou les armes de contact quand un ennemi s'approche : ce qu'on faisait en réglant ça, c'était changer l'algorithme utilisé par leur IA. Et comme, à la base, un ordinateur, c'est juste un outil pour automatiser le traitement des algorithmes, tout ce qu'on peut exprimer sous la forme d'un algorithme, c'est facile à faire faire par un ordi.

Mais il y a toute une catégorie de décisions qu'un cerveau humain peut prendre et pour lesquelles expliciter un algorithme n'est pas franchement évident. Par exemple, si je vous montre un tableau et que je vous demande de me dire si c'est plutôt du Van Gogh ou du De Vinci, a priori, vous n'aurez pas trop de mal à faire la différence, mais expliquer ça sous la forme d'un algorithme, ça n'est pas franchement évident. Et vu que les ordinateurs sont, encore une fois, juste des outils pour automatiser le traitement des algorithmes, ça a été un assez gros casse-tête de réussir à les faire réussir sur ce genre de tâches.
Mais il semble aujourd'hui qu'on y arrive pas trop trop mal (encore que c'est beaucoup à relativiser, mais on en reparlera), et c'est ça le troisième, le sens général des mots « intelligence artificielle » dont on n'arrête pas d'entendre parler en ce moment : tout ce qui relève de l'apprentissage machine, de la façon dont on entraîne les ordinateurs à faire autre chose que ce pour quoi ils sont doués à la base. Ce qui évidemment, n'est pas spécialement évident sur le principe :-)

En vrai, ça fait assez longtemps (à l'échelle de l'informatique) qu'on bosse là-dessus, et techniquement il n'y a pas forcément grand chose de très nouveau, mais si je me lance là-dedans tout de suite ça risque de faire un post un brin trop long, donc on verra ça la prochaine fois.
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Avatar du membre
vv221
Grand Gourou
Momie majeure
Messages : 3164
Enregistré le : dim. 17 août 2008, 10:11
Contact :
Statut : Hors ligne
.

Message par vv221 »

Ça me semble être une excellente idée de commencer par poser ces trois définitions, qu’on regroupe un peu abusivement sous cette même étiquette blobesque « Intelligence Artificielle ».

De ce que j’ai pu voir autour de moi, la confusion entre ces trois domaines pourtant bien distincts entretient pas mal la mystification de l’intelligence artificielle, et brouille fortement les pistes au sujet de ce qu’elle peut ou ne peut pas. Ce qui aboutit à une sorte d’optimisme béat, à une forme de techno-solutionnisme avec une IA quasi-messianique qui va résoudre absolument tous nous problèmes.

Pourtant avec tes définitions c’est très clair : apprendre à reconnaître un Van Gogh d’un De Vinci ne va pas vraiment aider l’IA d’Age of Empires à se défendre contre un rush de cavalerie plus efficacement.
Ceterum censeo Discordum esse delendam
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne
.

Message par Elzen »

En effet ! Et en vrai, même en ne prenant qu'une seule de ces définitions, on regroupe quand même encore un paquet de trucs qui n'ont en fait pas tant que ça à voir entre eux, mais on verra ça en détaillant. Et d'ailleurs, allez, attaquons immédiatement la suite :-)

On va commencer par se demander comment une machine, qui à la base ne fait que suivre une série d'instructions qu'on lui donne, peut se mettre à « apprendre » des choses, au sens où elle adopterait au fur et à mesure des comportements qui ne sont pas juste une application directe et logique de ses instructions de base. Pour arriver à ça, on a d'abord eu besoin d'arriver à faire autre chose qui n'était pas forcément évident pour un ordinateur : simuler le hasard.

Je ne vais pas trop détailler cet aspect-là, parce que ce serait assez technique et pas forcément très intéressant, mais si vous avez déjà joué à du jeu de rôle, vous savez probablement déjà qu'il faut souvent tirer pas mal les dés en cours de partie et que donc, si on veut faire un jeu vidéo qui reprenne les règles du jeu de rôles (entre autre objectif, hein, ça sert aussi à pas mal d'autres trucs), c'est bien de ne pas avoir à demander à la machine de devoir lancer les dés elle-même littéralement. Donc on a commencé par développer des outils pour, en partant par exemple de l'heure qu'il est présentement, qui a le côté sympa de changer à chaque milliseconde, faire générer à la machine des nombres « pseudo-aléatoires », pas spécialement prédictibles. Ce qui est bien beau, mais donc, en quoi ça nous aide à faire apprendre des choses à une machine ?

Pour ça, on va remonter en 1961, soit à une époque où les ordinateurs sont beaucoup moins nombreux et beaucoup plus chers qu'ils ne le sont actuellement. Et donc on va commencer notre apprentissage machine, non pas avec un ordinateur, mais avec quelque chose d'un peu plus économique : des billes et des boîtes d'allumettes. Si si.

En 1961, donc, un chercheur britannique nommé Donald Michie invente une machine capable de jouer au morpion (tic-tac-toe en anglais), non pas en suivant un algorithme comme ce serait pourtant assez simple sur un jeu comme ça, mais en apprenant au fur et à mesure quels sont les bons coups.
Comme il ne peut pas mobiliser un ordinateur pour expérimenter son invention, il va se débrouiller avec les moyens du bord : une grosse pile de boîtes d'allumettes, chacune contenant des billes de couleur.
Chaque boîte d'allumettes de la pile correspond à une des situations possibles sur la grille de morpion : il lui en faut 304 pour représenter toutes les possibilités que peut rencontrer la machine au cours d'une partie. Quant aux billes, chacune de leurs couleurs est associée à un coup possible : si la bille est rouge, la machine ira jouer dans telle case, si elle est bleue, dans telle autre case, etc. On commence donc en mettant, dans chaque boîte d'allumettes, un certain nombre de billes représentants chacun des coups qu'il est possible de jouer à ce stade.

À partir de là, l'algorithme à suivre est relativement simple : on démarre par la boîte correspondant à la grille vide (ou à la grille correspondant au choix de l'adversaire s'il a déjà joué), et on prend, au hasard, une bille parmi celles qu'elle contient. La machine joue donc dans la case désignée par la bille, puis on attend que l'adversaire joue, et on se retrouve sur une nouvelle boîte d'allumette correspondant à la situation du plateau. On tire alors une bille au hasard parmi toutes celles que contient cette boîte, et on continue jusqu'à la fin de la partie.
Évidemment, sur la première partie, la machine joue complètement au hasard, et le résultat n'est pas forcément très bon. Et c'est là que la notion d'apprentissage entre en jeu.

Si la machine a gagné la partie, on va supposer que les choix qu'elle a fait en cours de route étaient plutôt des bons choix, qu'il faudra sans doute essayer de re-faire à l'avenir. Si elle a perdu, en revanche, c'étaient probablement des mauvais choix, et il faudra essayer de ne pas les refaire. À la fin de chaque partie, selon le résultat, on va donc venir modifier la répartition des billes dans la boîte : si on a gagné la partie, on ajoute une bille de la même couleur que celle qu'on a pioché, ce qui rend donc le fait d'en tirer une légèrement plus probable ; si on a perdu, on en retire une, ce qui rend ce choix légèrement moins probable. Et ensuite, on refait une partie.

Il faut évidemment jouer un certain nombre de parties pour arriver à « bien » jouer de cette manière, mais, en procédant ainsi, on finit par se retrouver avec une répartition de billes dans les boîtes qui fait que, chaque fois qu'on en tire une au hasard, on va se retrouver à jouer un « bon » coup, permettant de gagner la partie (ou au moins ne pas la perdre) avec une assez bonne fiabilité. Notre tas de boîtes d'allumettes vient donc d'apprendre à « bien » jouer au morpion.

Évidemment, cette approche a des limites. La première d'entre elles étant que s'il faut 304 boîtes d'allumettes juste pour jouer au morpion, ce n'est pas demain la veille qu'on arrivera à faire un tas de boîtes d'allumettes assez grand pour jouer aux échecs ou au go, où le nombre de possibilités est beaucoup plus grand. Et ne parlons même pas de choses plus complexes, comme par exemple, prendre les transports en commun : vous ne montez jamais deux fois dans le même bus, au sens où, d'une fois sur l'autre, les gens qui sont dedans sont tous différents et la répartition des places va changer.
Et avec une technique comme celle-ci, chaque fois que vous rencontrez une situation dans laquelle vous ne vous êtes jamais trouvés jusque là, vous ne pouvez que piocher une bille au hasard, sans savoir si c'est plutôt une bonne idée ou pas, donc si le nombre de possibilités est infini, ça ne va pas aller très loin.

Mais, nous avons quand même ici une manière de faire apprendre des choses à une machine, de faire en sorte qu'elle arrive, au bout d'un certain nombre d'essais, à prendre des décisions sans qu'on lui ait pour cela donné un algorithme précis à suivre (enfin, si, elle suit toujours un algorithme, mais c'est celui que je viens de vous présenter, qui ne dépend absolument pas de ce qu'on veut vraiment faire faire à la machine). Tout ce qu'il faut faire, maintenant, c'est réussir à appliquer ce principe à des situations où ça a une chance d'être vraiment utile, et pour ça, on aura besoin de quelque chose dont vous avez déjà entendu parler : un réseau de neurones.

Mais on en reparlera la prochaine fois.
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Avatar du membre
vv221
Grand Gourou
Momie majeure
Messages : 3164
Enregistré le : dim. 17 août 2008, 10:11
Contact :
Statut : Hors ligne
.

Message par vv221 »

Elzen a écrit : dim. 09 févr. 2025, 21:04 Mais on en reparlera la prochaine fois.
C’est quand la prochaine fois ?

J’ai été fasciné à la lecture de cette histoire de billes dans des boîtes d’allumettes, j’ai hâte de connaître la suite :D
Une machine capable d’apprentissage en 1961, sans même avoir besoin d’électricité pour fonctionner, je dois admettre que je ne m’y attendais pas…
Ceterum censeo Discordum esse delendam
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne
.

Message par Elzen »

Oui, quand on fouille les archives, il y a pas mal de petites pépites méconnues comme celle-ci à déterrer, ce qui est plutôt cool. Et encore, je m'aperçois que je n'ai même pas donné le nom de la bête : Donald Michie a appelé son invention « MENACE », pour « Matchbox Educable Noughts And Crosses Engine » :gign:

Mais donc, on va dire que la prochaine fois est maintenant ! D'ailleurs, d'une manière générale, le sujet a eu l'air pas mal consulté depuis hier : les autres gens, si ça vous intéresse, n'hésitez pas à vous manifester aussi, c'est toujours plus intéressant de répondre aux retours que de (semi-)monologuer :)

Et donc, pour arriver à faire de l'« intelligence artificielle », on s'est dit assez vite que ça pourrait être une idée de se demander comment marche l'« intelligence naturelle ». Sauf que spoiler : c'est assez complexe, on est encore très loin de tout comprendre, et on aura d'ailleurs l'occasion d'en reparler un peu dans les prochains messages. Mais on a quand même capté depuis un certain temps que ça se passe en grande partie au niveau de notre cerveau, qui est constitué de cellules spécialisées appelées les neurones.

Un neurone (oui, comme on dit « une cellule », j'ai pendant longtemps cru qu'on disait « une neurone » aussi, mais en fait apparemment c'est masculin, du moins tant que l'usage du féminin ne s'est pas imposé, mais ça c'est un autre sujet), c'est donc une petite cellule avec une forme assez reconnaissable :
Vue schématique d'un neurone. Source : https://commons.wikimedia.org/wiki/File:Neuron_Hand-tuned.svg
Vue schématique d'un neurone. Source : https://commons.wikimedia.org/wiki/File:Neuron_Hand-tuned.svg
neurone.png (36.55 Kio) Vu 2573 fois
Les petits machins sur les côtés, ce sont des dendrites, qui sont chargées de collecter les informations (depuis nos capteurs sensoriels, ou depuis d'autres neurones) et de la transmettre au corps cellulaire, le machin au centre, qui va ensuite transférer ou pas les informations sur l'axone, le grand tuyau, qui part vers d'autres neurones, ou vers les trucs à (dés)activer, comme nos muscles. En première approximation, c'est environ tout : notre cerveau, c'est des neurones branchés les uns à la suite des autres, et l'information qui circule entre elles finit par produire notre pensée.

Bon, bien sûr, c'est vraiment une approximation très grossière, mais ça suffit déjà pour essayer de modéliser et de simuler ça. En fait, l'idée est même encore plus ancienne que nos boîtes d'allumettes, puisque le concept de base du neurone artificiel a été formalisé dès 1943. Ce principe est plutôt simple, assez proche de celui d'une fonction mathématique. Si vous avez fréquenté le collège, vous avez probablement déjà croisé la notation « f(x) = y ». Par exemple, la fonction racine carré (√) est un truc bizarre qui, si on lui donne 4 comme entrée, va nous sortir la valeur 2 en réponse (et si on lui redonne la valeur 2 à bouffer, elle nous sort un truc infini après la virgule, parce que pourquoi pas).

L'informatique « habituelle », celle des algorithmes, est bourrée de trucs comme ça : des fonctions qui prennent en entrée une valeur, ou un certain nombre de valeurs, et qui nous sortent autre chose. La plupart du temps, ce sont des fonctions déterministes : pour une même donnée en entrée, vous aurez toujours la même valeur en sortie. Mais parfois, comme dit plus haut, on veut ajouter du hasard dans les algorithmes (c'est mieux pour un algo qui mélange un paquet de cartes, par exemple), et donc on va avoir un résultat qui va changer d'une fois sur l'autre. Ici, on veut quelque chose qui soit susceptible d'apprendre, donc on va reprendre le principe des boîtes d'allumettes.

En fait, chaque neurone artificiel est une mini-machine à jouer un coup au morpion : en fonction des différentes entrées, on choisit une boîte, puis on tire une des billes qui sont dedans, et on renvoie la couleur de cette bille. Et en fonction du résultat, on va modifier légèrement les probabilités pour avoir plus souvent, ou moins souvent, cette couleur en sortie.

La différence fondamentale, c'est que la machine de Michie avait été faite sur mesure pour jouer au morpion : chaque boîte correspondait à une situation possible sur le plateau. Ici, on part sur quelque chose d'un peu plus abstrait : on décide quelles peuvent être les entrées et les sorties, mais la répartition des billes dans les boîtes n'a pas de « sens » particulier. Le neurone en lui-même bosse d'une façon qui est plutôt indépendante de ce pour quoi on va utiliser son résultat en pratique.

Et c'est encore plus vrai quand, comme dans un vrai cerveau (insérez ici une remarque désobligeante du type « sauf celui de telle personne »), on ne se contente pas d'un seul neurone, mais qu'on en fait fonctionner plein les uns avec les autres. Plutôt que de donner les entrées à un neurone artificiel et de lire sa sortie, on va organiser tout un réseau de neurones, en plusieurs couches : on donne les entrées aux neurones de la première couche, puis les résultats qu'ils produisent servent d'entrée aux neurones de la deuxième couche, etc., jusqu'à la dernière où on récupère le résultat final. Résultat final qu'on va comparer à ce qu'on voulait, comme quand on regardait si on avait gagné ou perdu la partie, pour que chaque neurone puisse ajuster ses probabilités interne, et faire remonter l'information aux neurones de la couche précédente.

(Au passage, plus on met de couches successives, plus on va considérer que le réseau est « profond », « deep » en anglais, et c'est pour ça que pas mal de trucs autour de l'« intelligence artificielle » ont des noms avec « deep » dedans : ça ne veut strictement rien dire, si ce n'est qu'ils ont été conçus avec des réseaux contenant plein de couches de neurones successives.)

Et donc tout ça nous donne donc un gros bazar dans lequel, contrairement à nos boîtes d'allumettes du post précédent, chaque neurone n'a pas un rôle clairement défini, donc on est vraiment sortis de l'informatique algorithmique pour entrer dans autre chose, qu'on espère pouvoir être une réponse aux problèmes qui ne peuvent pas être résolus comme des algorithmes. Est-ce que ça va marcher si bien que ça ? On en parlera dans les prochains messages, évidemment, mais on peut déjà se faire deux petites remarques.

La première, c'est que, si le concept de neurone artificiel date de 1943 et la machine à jouer au morpion de 1961, la mise en réseau des neurones n'a pas tellement plus tardé après ça : tout ce que je vous décrit là était déjà au point dans les années 1980, et il n'y a pas eu de gros changement conceptuels depuis : les « IA » actuelles fonctionnent sur un modèle qui a déjà plus de quarante ans. Si la mode ne prend que maintenant, c'est qu'il y a un petit souci avec ce concept que vous pouvez peut-être déjà envisager.

La seconde remarque, c'est que tout cet effort pour abstraire le truc a évidemment un effet. Avec la machine de Michie, on avait quelque chose qui, à partir d'une situation déjà connue, finissait par nous sortir une bonne décision à prendre. Avec un réseau de neurone comme ceux dont je viens de parler, on a quelque chose qui, à partir d'une situation qui ressemble à une situation déjà connue, va nous sortir une décision qui ressemble à une bonne décision. Et autant, c'est bien de pouvoir marcher même dans des situations qui ne sont pas exactement celles qu'on connaît, autant, pour juger de la qualité d'une décision… si on demande par exemple à notre réseau de neurone de nous générer des fiches de perso, qu'est-ce qui ressemble autant, en début de partie, à celle de votre mage qui finira par pulvériser Sarevok sans effort, que celle de votre mage qui va lamentablement périr face à une bande de grouilleux malades à peine sorti de Chateausuif, sans même atteindre l'auberge de Brasamical ?

Un algorithme, ça a l'avantage de faire ce qu'on attend de lui, et c'est ce qui fait tout l'intérêt des ordinateurs qui les appliquent automatiquement. Si le résultat n'est pas cohérent avec ce qu'on attendait, c'est qu'il y a un truc qui a été mal codé quelque part. Avec l'apprentissage machine et le fonctionnement non-algorithmique, par contre, le résultat peut beaucoup plus facilement être surprenant. Et ce d'autant plus que ce qu'on imagine que fait la machine et ce que fait la machine en vrai, sont deux choses qui peuvent parfois être assez éloignées l'une de l'autre. Mais ça, on va le détailler la prochaine fois :) N'hésitez pas à poster un peu d'ici-là !
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Avatar du membre
Mornagest
Grand Gourou
Élu de Mystra
Messages : 19272
Enregistré le : ven. 17 oct. 2003, 10:48
Localisation : Juste derrière vous, prêt à hurler BOUH !
Statut : Hors ligne
.

Message par Mornagest »

Je poste un peu pour te remercier de ces messages, déjà, qui permettent de différencier certains types d'IA. Si je comprends bien, celle dont on parle le plus en ce moment serait l'« apprentissage machine » ? Ou est-ce qu'en admettant que le fait de piocher dans une base de données existante (au hasard, l'Interwebz) pour répondre à une question posée par terminal interposé, on n'est pas sur de l'apprentissage mais de la compilation ? Est-ce que ça revient au même ?
Administrateur général. Je modère dans cette couleur.

Rejoignez Melandis, la Cité du Chaos
La biographie de Mornagest ainsi que ses quêtes et sa couleur RP #6C84FF ; la biographie de Henk et sa couleur RP #3BBB34

"Ne vous imaginez pas être différente de ce qu'il eût pu sembler à autrui que vous fussiez ou eussiez pu être en restant identique à ce que vous fûtes sans jamais paraître autre que vous n'étiez avant d'être devenue ce que vous êtes."
(Lewis Caroll)
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne
.

Message par Elzen »

Les différents trucs qui sont à la mode en ce moment sous l'étiquette « IA » (ChatGPT et autres « agents conversationnels », générateurs d'images, etc.) ont en commun d'être des outils qui reposent sur l'apprentissage machine, au sens décrit ci-dessus. Le cœur de la techno, c'est : on prend beaucoup de données, et on les passe à un réseau de neurones pour qu'il change sa répartition de billes de la façon dont on l'attend. Le plot twist étant que ce qu'on attend vraiment de l'outil n'est pas forcément ce qui est mis en avant à son sujet, mais ça c'est l'objet du prochain post (qui est déjà rédigé, j'attends juste de voir s'il y a d'autres réactions avant de le poster !)

L'apprentissage machine nécessite de compiler un gros corpus d'entraînement (c'est d'ailleurs une des raisons qui font que le concept, bien que datant des années 80, n'est déployé que maintenant : 'fallait d'abord avoir assez de données à leur faire bouffer, la quantité de textes numérisés était loin d'être suffisante avant Internet !), mais l'apprentissage lui-même consiste plutôt à extraire plein de données statistiques de ce corpus pour avoir un réglage de probabilités à peu près potable. Avec des effets de bords assez connus, j'en parlerai plus loin si on continue jusque là :)
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Avatar du membre
Mortis
Conseiller de Manost
Araignée éclipsante
Messages : 1254
Enregistré le : ven. 19 juin 2015, 15:44
Localisation : Trop loin pour que tu puisses m'attraper... mouhahaha !
Statut : Hors ligne
.

Message par Mortis »

Je met ce petit commentaire pour te remercier pour ces pavés romains ^^

Je connais à titre personnel le principe, car j'ai été amener au cours d'un projet pro à devoir envisager d'en concevoir une, et expliquer quels étaient les avantages et inconvénients de ce genre d'outils.

On ne s'imagine pas le temps qu'on peut passer à expliquer au gens ce que c'est que ce qu'ils nomment "IA", ça prend un temps fou !

Bonne continuation en tout cas !
Avatar du membre
lefreut
d'Oghmatique
Araignée colossale
Messages : 514
Enregistré le : mar. 22 déc. 2009, 14:25
Localisation : Chaville (92)
Statut : Hors ligne
.

Message par lefreut »

Mortis a écrit : mer. 12 févr. 2025, 15:22 On ne s'imagine pas le temps qu'on peut passer à expliquer au gens ce que c'est que ce qu'ils nomment "IA", ça prend un temps fou !
Surtout qu'en fait IA c'est un terme qui englobe beaucoup (trop?) de choses qui sont au final assez différentes donc ça peut être compliqué de savoir de quoi on parle. Aujourd'hui si on dit IA, presque tout le monde pense LLM (ChatGPT et autres) alors qu'il y a quelques années c'était pas le cas. Perso si on me dit IA, le premier truc auquel je pense c'est l'IA d'un jeu vidéo ce qui n'a rien à voir.

Et aussi, je pense que le terme IA est plus un terme marketing qu'autres choses. ça fait rêver de parler d'un outils "intelligent" alors qu'il n'y a pas vraiment d'intelligence dedans.
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne
.

Message par Elzen »

On va arriver à ce genre de considérations relativement bientôt :p Mais pour l'instant, commençons déjà par ça : avec l'apprentissage machine, il y a au moins une chose dont on peut être sûr, c'est que la machine ne fait pas vraiment ce qu'on attend d'elle.

Quand on y réfléchit un peu, c'était évident dès le début : la machine de Mitchie, dont j'ai parlé précédemment, ne joue pas au morpion, en fait. Ce que fait cette machine, c'est : prendre une bille aléatoire dans la boîte qu'on lui désigne, et nous dire de quelle couleur elle est. C'est la personne qui utilise cette machine qui va associer les boîtes et les couleurs des billes aux positions sur le plateau. Toute la partie qui est spécifique au morpion se passe à l'extérieur (et est assurée par un algorithme classique).

Cet aspect générique du fonctionnement du machin est en lui-même quelque chose d'assez intéressant : c'est par exemple ce qui permet à ChatGPT d'être utilisé pour jouer aux échecs, alors que ce n'est pas du tout sa fonction de base. Il existe ainsi des outils tous faits pour lui demander de générer la description d'une partie, avec la notation standard qui est facilement gérable par un algorithme classique, et déplacer les pièces en fonction de ça.

C'est un « hack », une bidouille. Et pas mal de choses en informatique viennent de là : des outils qu'on a détourné de leur usage d'origine, parce qu'on s'est rendus compte qu'en les utilisant autrement, on pouvait faire quelque chose d'autre, qui pouvait être intéressant aussi. Mais même dans ce cas, c'est plutôt bien de savoir ce que faisait le truc à la base, parce que ça aide souvent à comprendre le résultat qu'on a sous les yeux.

Un très bon exemple pour ça, ce sont les « IA » qui génèrent des images, du type Midjourney, Stable Diffusion, DALL-E et autres, parce qu'ici, il y a plusieurs niveaux de « ça ne fait pas ce qu'on pense que ça fait ». Il y a bien sûr le fait qu'en interne, comme tout système de ce genre, elle ne fait que changer la répartition des billes dans ses boîtes sans que ça ait de rapport direct avec les images. Mais en plus, ici, même ce qu'on fait faire à cette boîte de billes n'est pas vraiment ce à quoi on s'attend.

En effet, nous autres humains, quand on veut produire une image, on appelle ça « dessiner ». Ça peut prendre plusieurs formes, mais grosso-modo, on a une idée en tête, et on essaye de mettre des traits de plus en plus précis, puis de la couleur, pour matérialiser cette idée. Eh bien ce n'est pas du tout comme ça que ces outils marchent.

Pour entraîner une « IA générative d'images », comme on les appelle, on part d'images déjà existantes, dans lesquelles on va venir modifier des pixels. On prend par exemple La Liberté guidant le peuple, de Delacroix, ou bien la bannière de notre forum, de @Mornagest, et on va venir aléatoirement mettre un point rouge, quelque part, puis un point vert ailleurs, et ainsi de suite. Et ensuite, on donne ça au logiciel, et on lui demande de corriger ce qu'on vient de faire. Si on retrouve bien les couleurs de l'image d'origine, on dit à la machine que c'est gagné, si non, on lui dit que c'est perdu, pour qu'elle ajuste sa répartition de billes. Puis on reprend l'image, on change encore plus les couleurs, et on recommence.

On recommence ensuite avec une image d'origine de plus en plus illisible, jusqu'à ce que la machine soit capable de nous générer quelque chose à partir de ce qui n'est qu'une bouillie de pixels aléatoires, sans aucun sens. Comme ça, quand on veut faire générer une image à la machine, il n'y a plus qu'à préparer une image à la bonne taille avec un contenu complètement tiré au sort, et la laisser se débrouiller pour qu'à la fin ça ressemble à quelque chose.

(Techniquement, on ne donne pas seulement à la machine l'image modifiée, mais on lui donne aussi un texte qui décrit ce qu'il y a sur l'image à refabriquer, ce qui permettra ensuite de rédiger un « prompt » pour que l'image générée ressemble à ce qu'on attendait même si la bouille de pixels initiale est complètement aléatoire, mais le principe reste environ le même.)

Et donc, notre programme, pour générer une image, ne va pas commencer par se faire une idée de la scène qu'il doit produire, puis essayer de la représenter : il va aller voir chaque pixel de notre image et tenter d'en déterminer la couleur la plus probable en fonction de ce qu'il y a autour. Et une fois qu'on a ce comportement en tête, certaines des « erreurs » classiques de ces générateurs d'images deviennent beaucoup plus compréhensibles.

Pour ne prendre qu'un seul exemple, le très classique nombre de doigts : le personnage sur l'image a une main qui présente six ou sept doigts au lieu de cinq ? Ben oui, normal : l'outil n'a pas dessiné une main. L'outil a identifié qu'à un endroit il devait y avoir un doigt, puis a travaillé autour. Et statistiquement parlant, à côté d'un doigt, il y a de très fortes chances qu'il y ait un autre doigt, donc à côté du premier, il en a rajouté un second, puis un troisième, et ainsi de suite.

Et comme le système est auto-organisé, avec des neurones dont le rôle individuel n'est pas décidé spécifiquement comme pour nos boîtes d'allumettes du début, ce genre d'erreurs ne se corrige pas du tout à la façon d'un programme classique pour lequel on pourrait aller modifier juste la ligne de code fautive. Fondamentalement parlant, le logiciel obtenu par apprentissage⁽¹⁾, c'est une sorte de boîte noire dont il est assez difficile de comprendre le fonctionnement interne.

Ce qui d'ailleurs limite parfois grandement leur intérêt. Par exemple, en biologie, on a tout un champ de recherche concernant le pliage des protéines : les organismes vivants produisent de longues suites d'acides aminés, qui vont ensuite se replier sur eux-mêmes pour prendre une forme tridimensionnelle spécifique, permettant leur action dans l'organisme. Mais il est assez délicat de comprendre comment cette forme s'obtient à partir de la séquence d'acides aminés initiale.
Ayant du mal à comprendre ça, des scientifiques ont tenté de recourir à « l'IA » pour essayer d'y voir clair. On a donc entraîné un logiciel d'apprentissage à plier des protéines, à produire la bonne forme à partir de la séquence initiale. Et cet apprentissage a plutôt bien marché, puisque le machin obtenu est capable de nous prédire la forme que prendra une protéine avec une redoutable précision… et pourtant, ça ne nous aide absolument pas à comprendre le phénomène, puisqu'on ne comprend pas plus la façon dont « l'IA » s'y prend que celle dont les molécules se plient dans la vraie vie.

Comme on en parlait au début, on peut savoir identifier un Van Gogh d'un De Vinci au premier coup d'œil, et pourtant être totalement incapable d'expliquer précisément comment on y parvient.
Néanmoins, comprendre comment marchent ces outils ne va pas forcément aider à corriger ce que nous considérons comme des défauts, mais va au moins nous permettre de savoir à quoi s'attendre, et c'est donc assez important de ne pas s'en tenir à une sorte de « Ta Gueule, C'est Magique ! ».

D'où cette série de posts explicatifs, qui sont d'autant plus nécessaires que, parfois, le vocabulaire que nous utilisons est quand même franchement ambigu.
À titre d'exemple, vous avez sans doute déjà entendu parler de ce fameux « algorithme de recommandation » utilisé par les plateformes de vidéos et les médias sociaux pour décider quels contenus on va mettre en avant pour vous. Eh bien, figurez-vous que, contrairement à ce que ce nom indique, ce truc n'est, justement, pas un « algorithme », au sens d'une suite d'instructions claires et compréhensibles dont on parlait plus haut, mais précisément un truc résultant d'un apprentissage machine⁽²⁾.

Et là encore, pour comprendre comment cet « algorithme » qui n'en est pas un fonctionne et pourquoi il a des effets tout à fait mesurables et mesurés sur le comportement des gens, le mieux qu'on ait, c'est de voir à quoi exactement il a été entraîné. Et en l'occurrence, c'est plutôt simple : les plateformes en question étant financées par la publicité, elles auront davantage de revenus que vous y restez longtemps pour en afficher. L'outil de recommandation est donc entraîné pour vous faire rester le plus longtemps possible. Ce qui évidemment a pas mal d'effets de bord.

Avec tout ça en tête, on commence à avoir pas mal d'éléments pour aborder un peu plus en détails les « IA génératives de texte » comme ChatGPT, qui seront donc notre prochaine étape. Si ça vous intéresse toujours, en tout cas, donc merci pour vois réponses et n'hésitez pas à continuer :)

(1) Avec _khrys_, une camarade Mastodonienne, on s'est d'ailleurs dit que plutôt que de parler d'« IA », avec tout le flou que ça implique, on pourrait qualifier ces trucs de « Systèmes Résultant d'un Apprentissage Statistique », parce que c'est plus représentatif de leur fonctionnement réel, et que bon, ce serait quand même mieux si ces SRAS ne nous infectaient pas autant.
(2) Ce qui donne d'ailleurs parfois des résultats assez rocambolesques : quand on vous explique que, sur Mastodon ou sur PeerTube, « il n'y a pas d'algorithme » pour pousser ce contenu vers vous, la réalité qu'on essaye de décrire est en fait précisément que la façon dont ce contenu vous parvient est gérée par un algorithme classique et simple : « si vous êtes abonné·e·s, alors on vous envoie le contenu », ni plus, ni moins.
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Avatar du membre
deratiseur
Rakshasa
Messages : 3799
Enregistré le : mer. 05 déc. 2007, 18:35
Localisation : Gap, Hautes alpes
Statut : Hors ligne
.

Message par deratiseur »

Ouaich... j'ai donc pris le temps de lire ses "pavés" qui d'habitude me rebutent. Bah c’était chouette, je te remercie pour ces éclaircissements :)
Et nous, pauvres péons qu'on prend toujours pour des c.... avons nous participé à l'apprentissage profond des voitures autonomes avec tous les captchas "trouvez les feux rouge dans toutes ses images, reconnaissez les motos parmi ses images", etc...) qu'on valide depuis des années ? Ou ont t-ils oublié d'en profiter ?
Combien de moddeurs se sont lancés dans des projets faramineux pour ne jamais les finir ? Je ne fait que des "petits" mods, mais au moins je les finis.

Mes mods sont tous sur Mediafire et Github
Et leurs descriptions sont ici.
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne
.

Message par Elzen »

Merci à toi :) J'essaye de faire en sorte que ça reste lisible et aéré tout en donnant le plus d'infos possibles, donc c'est bien si ça se lit ! D'ailleurs la prochaine partie est en cours de rédaction, je vais tenter de poster d'ici ce soir.

Pour ta question sur les captchas, ils ont la réputation d'être utilisés pour ça, mais je ne pourrais pas confirmer ou infirmer franchement, je n'ai jamais bossé sur le sujet. Ça me paraît loin d'être impossible, ceci dit, dans la mesure où « historiquement », les captchas ont déjà exploité le travail humain pour complètement autre chose (pendant un moment, ça présentait des scans de vieux documents, sur lesquels on devait reconnaître des mots parce que les outils de reconnaissance de texte de l'époque n'y parvenaient pas, et on a ainsi collectivement contribué à numériser pas mal de textes d'archive. D'ailleurs les rapports entre intelligence collective et apprentissage machine peuvent être assez intéressants aussi, mais je ne sais pas si j'aurai beaucoup de choses à en dire ici.)
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Avatar du membre
vv221
Grand Gourou
Momie majeure
Messages : 3164
Enregistré le : dim. 17 août 2008, 10:11
Contact :
Statut : Hors ligne
.

Message par vv221 »

Sur le sujet des captchas et de l’éventuelle exploitation de nos réponses, je ne peux pas m’empêcher de partager cette image (en anglais) :
Image
source
Modifié en dernier par vv221 le ven. 14 févr. 2025, 15:20, modifié 1 fois.
Ceterum censeo Discordum esse delendam
Avatar du membre
Elzen
Grand Gourou
Nabassu
Messages : 4952
Enregistré le : mer. 22 oct. 2003, 22:22
Localisation : Pas loin...
Contact :
Statut : Hors ligne
.

Message par Elzen »

Nous arrivons donc sur ces fameuses « IA » génératrices de texte, comme le désormais célèbre ChatGPT. Et on va commencer par reprendre ce qu'on vient de voir dans le post précédent : bien qu'on nous présente assez souvent une mise en scène où vous entrez un texte pour que l'outil vous « réponde », ce n'est absolument pas ce que l'outil fait en pratique.

La tâche pour laquelle on a entraîné les réseaux de neurones utilisés pour ces outils, en pratique, c'est : prédire le prochain mot d'un texte. C'est tout. Mais en prédisant un mot, puis un autre, puis encore un autre, et en mettant le tout un peu en forme avec une jolie interface de conversation, ça finit par y ressembler assez pour qu'on ait l'impression de dialoguer avec la machine.
Ça n'empêche qu'en pratique, le truc qui fait tourner ChatGPT, c'est seulement une version perfectionnée du mode prédictif pour les SMS que proposent certains téléphones, où vous tapez le début d'une phrase et où vous le laissez compléter, ni plus, ni moins.

En pratique, ces outils reposent sur une technologie appelée LLM, ou « Large Language Model » (« gros modèle de langage » en français), qui est donc un machin entraîné sur un grand nombre de textes et qui a fait plein de règles statistiques dessus, et qui parvient donc, quand on s'en sert pour générer du texte, à faire quelque chose qui ressemble plutôt pas mal (enfin, modulo les soucis qui peuvent venir des données d'entraînement, mais ça, on aura l'occasion d'en reparler dans d'autres posts) à du texte généré par un être humain, d'où le fait que ça nous semble marcher un peu mieux que les quelques tentatives précédentes de faire des « agents conversationnels ».

Parce que oui, si ChatGPT est à la mode depuis seulement quelques années, des agents conversationnels, il y en a eu des tas avant, plus ou moins connus.
On peut par exemple mentionner Tay, un chatbot que Microsoft avait déployé sur le réseau Twitter en 2016… avant de l'en retirer en catastrophe 24h plus tard, parce que leur « IA » s'était déjà mise à débiter du contenu raciste et négationniste.

Pourquoi un tel résultat ? Tout simplement parce que Tay reposait sur un système d'apprentissage comme ceux dont nous avons parlé dans les derniers posts, qui était encore actif : Microsoft mettait à l'époque en avant que « plus vous lui parlez, plus elle devient intelligente » (à comprendre donc comme : vos réponses activent sa répartition de billes interne, elle va ajuster ses probabilités selon ce que vous lui dites), et évidemment une bande de trolls s'étaient alors amusés à lui faire apprendre les pires atrocités possibles. Et j'ai pris cet exemple parce que c'est le premier que j'ai retrouvé en cherchant rapidement des articles de l'époque, mais il y en a eu quelques autres.
C'est probablement en partie pour cette raison qu'à la sortie de ChatGPT, celui-ci ne savait pas parler d'événements postérieurs à 2021 : OpenAI, la société qui publie cet outil, avait choisi de strictement séparer sa phase d'apprentissage et sa phase d'utilisation. GPT3.5, le moteur qui était utilisé à l'époque, avait été entraîné sur des textes dont les plus récents étaient de 2021, et répondait ensuite sans plus modifier ses probabilités internes.

Mais c'était peut-être aussi en partie parce que l'entraînement d'un LLM, c'est quelque chose qui nécessite beaucoup de texte, et une très grosse puissance de calcul. Ce sont d'ailleurs les deux raisons dont je parlais plus haut pour lesquelles, même si on a vu que l'apprentissage à base de réseaux de neurones était déjà conceptuellement au point dans les années 1980, et que la techno actuelle en est toujours assez proche, l'application n'est arrivée qu'un certain temps après : il fallait d'abord attendre d'avoir accès à une quantité suffisante de texte disponible au format numérique, et que les machines soient assez puissantes pour procéder au traitement. D'ailleurs, qui dit puissance dit aussi consommation : le coût environnemental d'entraînement d'une IA est assez conséquent, on verra si on détaille ce point plus tard ou pas.

En attendant, on peut déjà dire quelques mots sur le coût humain de ces outils. Parce que dans cette masse de texte qui sert à les entraîner (et qui n'est pas forcément récupérée très légalement, mais pareil, on reparlera peut-être des histoires de droits d'auteur une autre fois), ben il y a aussi une certaine quantité de texte raciste, négationniste, etc. Et qu'OpenAI voulait éviter un fiasco à la Tay.
Et donc ils ont décidé de faire en sorte que leur outil soit entraîné non pas une, mais deux fois : d'abord l'entraînement intensif sur un corpus de texte de référence dont on a parlé plus haut pour que leur outil « apprenne à parler » convenablement en ajustant ses probabilités, puis une deuxième phase qu'on appelle un « apprentissage par renforcement », pour lui apprendre à dire certaines choses plutôt que d'autres. Et cette deuxième phase, elle s'obtient en faisant générer à l'outil des tas et des tas de texte, et en les faisant lire à des êtres humains pour qu'ils puissent dire « ça c'était bien, continue comme ça » ou « ça c'était nul, fais autrement ».

Et évidemment, puisque ce sont des boîtes privées capitalistes qui gèrent ce genre de choses, tout a été fait pour minimiser les coûts. Ce renforcement a donc été délocalisé dans les pays pauvres, où la main d'œuvre est moins chère, et pour avoir droit à un gentil ChatGPT qui ne nous insulte pas, il a donc fallu que pas mal de travailleurs sous-payés passent pas mal de temps à lire des textes parfois assez atroces, ce qui n'est pas tip-top pour leur santé mentale.
Soit dit en passant, ce n'est pas le cas seulement pour les « IA génératives », mais également pour pas mal d'autres outils du même style. Si vous utilisez par exemple un assistant vocal, du type Cortana, Alexa ou OK Google, il y a une probabilité non-négligeable pour que vos échanges soient écoutés par une personne chargée de vérifier si la machine a répondu de façon attendue ou pas, je vous renvoie si ça vous intéresse à ce témoignage par exemple.

Et force est pourtant de constater que, malgré ce second entraînement, ChatGPT et ses collègues continuent de nous sortir régulièrement des absurdités, citant des livres ou des articles qui n'ont jamais été écrits, inventant des faits qui ne se sont pas produits, etc. On a pris l'habitude d'appeler ça des « hallucinations », comme s'il s'agissait d'un dysfonctionnement dans un processus par ailleurs « intelligent ».
Pourtant, si vous avez lu jusque là, vous devez déjà comprendre que cette façon d'appeler ça est trompeuse, et que, comme les surplus de doigts dans les images, ça devient beaucoup plus compréhensible quand on se remet en tête ce que fait vraiment l'outil : il s'agit d'un générateur de texte, entraîné pour mettre des mots à la suite les uns des autres d'une manière à ce que le résultat soit convainquant. Vérifier si ce qu'il dit est vrai ou faux n'est à aucun moment une étape du processus.

En fait, une bonne manière de qualifier ces outils est de les appeler des « générateurs de baratins », attendu que le baratin, c'est précisément ça : un discours produit uniquement pour convaincre, dont la (ou l'absence de) véracité n'entre ou pas en ligne de compte (dans le même genre, certaines personnes appellent aussi ça du « mansplaining as a service »).
Et donc à moins de bien relire et vérifier les informations, ce qui nécessite probablement de déjà bien connaître le sujet sur lequel vous l'interrogez (auquel cas on pourrait se demander si ça ne vaudrait pas mieux de procéder autrement, mais bon), il est préférable de ne pas spécialement leur faire confiance (certains outils se veulent plus fiables que ChatGPT à ce niveau… mais en gardant toujours le même principe de fonctionnement, donc ça reste limité. On aura peut-être l'occasion d'en reparler dans un prochain post).

On peut d'ailleurs se dire que le seul réel apport des LLM et de l'apprentissage machine, par rapport à ce qui se faisait avant, est ce côté convainquant. On a plus l'impression de tenir une conversation avec quelqu'un face à eux que face aux vieux chatbots qui occupaient déjà les sites de vente en ligne et de réclamation il y a quinze ou vingt ans, qui eux fonctionnaient de manière plus algorithmique. On avait à l'époque vraiment l'impression de parler à des robots, mais ils arrivaient, en repérant le bon mot clef dans la phrase, à nous proposer tant bien que mal le lien vers la page qu'on cherchait, ce qui était sans doute mieux que d'inventer.

D'ailleurs, tant qu'à parler des vieux trucs, je ne résiste pas à vous mentionner un peu ELIZA. C'est un logiciel qui n'est pas tout jeune, puisqu'il date du milieu des années 60⁽¹⁾, quelques années seulement après MENACE dont on parlait plus haut. Et il s'agit donc, vous l'aurez deviné, d'un des premiers chatbots. Enfin, un modèle de chatbot un peu particulier, quand même, parce qu'il ne faisait pas dans la conversation courante : il s'agissait d'un outil pour simuler un rendez-vous avec un psy⁽²⁾.
Avec un peu d'astuce, l'informaticien Joseph Weizenbaum avait mis au point un algorithme qui reformulait ce que disait l'utilisateur ou l'utilisatrice pour lui poser des questions à ce sujet et l'inciter à en parler davantage, avec des jokers du genre « je comprends » ou « dites-m'en plus » quand il ne trouvait rien d'exploitable (« ouais, c'est pas faux » n'était pas encore à la mode).
Je ne sais pas combien de personnes ont pu, à l'époque, être convaincues qu'ELIZA comprenait réellement ce qu'on lui disait, mais le fait est que ce genre de choses dépend au moins autant de nous et du contexte que du logiciel qu'on fait réellement tourner (d'ailleurs, vu qu'on est sur un forum sur les jeux vidéos, je pense qu'on pourrait aussi mentionner ici l'assez impressionnant système de discussion avec les extraterrestres proposé dans l'Arche du Captain Blood, un vieux jeu de 1988 que vous avez peut-être déjà vu passer).

Et donc, ça pourrait être une idée qu'on continue ça en parlant un peu de ce que c'est que l'intelligence d'une manière générale, et de la façon dont on la reconnaît, en sortant au passage un peu du domaine informatique pour parler rapidement du monde vivant. Ça nous changera un peu les idées dans le prochain message de la série :)

(1) Mes vingt ans, tes quarante, si tu crois que cela me tourmente, ah non, vraiment, Lisa ! ♫♪ aurais-je donc pu chanter si j'avais écrit tout ça dans les années qui ont suivi mon arrivée en ces lieux.
(2) Les plus geeks d'entre vous ont peut-être entendu parler du « psy » intégré au logiciel GNU Emacs. Il s'agit, sauf erreur de ma part, toujours d'un clone d'ELIZA.
Elzen (mon blog, le Livre d'Argent). Statut : Plus ou moins dispo.
RP : Angus Mivert, barde bricoleur (#3CB371ma fiche).
Auteur de la Gigue des Ombres ; initiateur de feu le Projet nBg.
Supercalifragilisticexpialidocious, Kupo !!
Avatar du membre
Mornagest
Grand Gourou
Élu de Mystra
Messages : 19272
Enregistré le : ven. 17 oct. 2003, 10:48
Localisation : Juste derrière vous, prêt à hurler BOUH !
Statut : Hors ligne
.

Message par Mornagest »

Finalement, ça rejoint la conclusion simple : ce n'est ni intelligent, ni artificiel... par contre, question consommation énergétique et éthique en général (avec tous les biais racistes que l'IA peut recevoir en puisant dans le vivier de X et autres cochonneries), on est sur un niveau plutôt pas mal.

Ce qui est inquiétant, c'est que les débouchés possibles sont tout autant de nouveaux outils pour détruire l'humain, la nature et tout ce qui va avec. Les industriels de l'armement bavent en permanence en ce moment rien qu'en pensant aux équipements de guerre qu'ils peuvent saupoudrer d'IA afin de rendre les armes plus précises, plus mortelles, plus destructrices, etc.

Et pour plaire aux foules, on promet des applications trololol du genre inventer de nouvelles compositions de pizzas ou créer des images paradisiaques (ou des deepnudes de la fille qui refuse de sortir avec toi et qui doit donc être punie pour ça).

Y a pas, ça fait rêver.

(je sais, j'aborde déjà les sujets qui fâchent)
Administrateur général. Je modère dans cette couleur.

Rejoignez Melandis, la Cité du Chaos
La biographie de Mornagest ainsi que ses quêtes et sa couleur RP #6C84FF ; la biographie de Henk et sa couleur RP #3BBB34

"Ne vous imaginez pas être différente de ce qu'il eût pu sembler à autrui que vous fussiez ou eussiez pu être en restant identique à ce que vous fûtes sans jamais paraître autre que vous n'étiez avant d'être devenue ce que vous êtes."
(Lewis Caroll)
Avatar du membre
deratiseur
Rakshasa
Messages : 3799
Enregistré le : mer. 05 déc. 2007, 18:35
Localisation : Gap, Hautes alpes
Statut : Hors ligne
.

Message par deratiseur »

Perso j’attends la VRAIE IA qui "pense" vraiment pour qu'elle en arrive à la conclusion qu'on à vu/lu dans un tas de films/livres d'anticipation : le problème, c'est l'humain. Yéééee, éradication.
Combien de moddeurs se sont lancés dans des projets faramineux pour ne jamais les finir ? Je ne fait que des "petits" mods, mais au moins je les finis.

Mes mods sont tous sur Mediafire et Github
Et leurs descriptions sont ici.
Avatar du membre
Guigui.
Gelée moutarde
Messages : 1606
Enregistré le : mer. 07 mars 2007, 15:14
Localisation : Paris
Contact :
Statut : Hors ligne
.

Message par Guigui. »

Mornagest a écrit : jeu. 13 févr. 2025, 19:14 Finalement, ça rejoint la conclusion simple : ce n'est ni intelligent, ni artificiel... par contre, question consommation énergétique et éthique en général (avec tous les biais racistes que l'IA peut recevoir en puisant dans le vivier de X et autres cochonneries), on est sur un niveau plutôt pas mal.

Ce qui est inquiétant, c'est que les débouchés possibles sont tout autant de nouveaux outils pour détruire l'humain, la nature et tout ce qui va avec. Les industriels de l'armement bavent en permanence en ce moment rien qu'en pensant aux équipements de guerre qu'ils peuvent saupoudrer d'IA afin de rendre les armes plus précises, plus mortelles, plus destructrices, etc.

Et pour plaire aux foules, on promet des applications trololol du genre inventer de nouvelles compositions de pizzas ou créer des images paradisiaques (ou des deepnudes de la fille qui refuse de sortir avec toi et qui doit donc être punie pour ça).

Y a pas, ça fait rêver.

(je sais, j'aborde déjà les sujets qui fâchent)
Comme tout ce que l'homme invente, il y a des applications utiles, d'autres inutiles, et d'autres nuisibles. C'est pas l'IA le problème, c'est ce qu'on en fait (ou ce qu'on en fera). Dit autrement : c'est pas l'IA qui m'inquiète, c'est l'homme. Heureusement il y a aussi des résultats de ce type-là par exemple.
Modifié en dernier par Guigui. le ven. 14 févr. 2025, 09:19, modifié 1 fois.
Avant, j'étais Xor de Xirius. Mais ça, c'était avant.
Avatar du membre
Mornagest
Grand Gourou
Élu de Mystra
Messages : 19272
Enregistré le : ven. 17 oct. 2003, 10:48
Localisation : Juste derrière vous, prêt à hurler BOUH !
Statut : Hors ligne
.

Message par Mornagest »

Sauf que sauver une personne (ou quelques personnes), même si c'est un progrès indéniable, ne va pas contrebalancer les effets délétères des usages dangereux (guerriers, hyper consommateurs de ressources naturelles, etc) qui sont déjà en train d'être déployés massivement à travers le monde.

Faut pas rêver, les innovations technologiques ont quasiment toujours eu davantage d'effets négatifs que positifs sur l'humain et son environnement. Et les quelques avancées « grand public » sont l'arbre qui masque la forêt, comme toujours.
Administrateur général. Je modère dans cette couleur.

Rejoignez Melandis, la Cité du Chaos
La biographie de Mornagest ainsi que ses quêtes et sa couleur RP #6C84FF ; la biographie de Henk et sa couleur RP #3BBB34

"Ne vous imaginez pas être différente de ce qu'il eût pu sembler à autrui que vous fussiez ou eussiez pu être en restant identique à ce que vous fûtes sans jamais paraître autre que vous n'étiez avant d'être devenue ce que vous êtes."
(Lewis Caroll)
Avatar du membre
loupgris
Élémentaire de feu
Messages : 2315
Enregistré le : jeu. 31 oct. 2019, 19:39
Statut : Hors ligne
.

Message par loupgris »

Faut pas rêver, les innovations technologiques ont quasiment toujours eu davantage d'effets négatifs que positifs sur l'humain et son environnement.
T'es déprimé ? :D
Avatar du membre
Mornagest
Grand Gourou
Élu de Mystra
Messages : 19272
Enregistré le : ven. 17 oct. 2003, 10:48
Localisation : Juste derrière vous, prêt à hurler BOUH !
Statut : Hors ligne
.

Message par Mornagest »

Juste réaliste. Le monde qui nous entoure démontre chaque jour que la technologie nous mène tout droit dans le gouffre, et on accélère en permanence pour se jeter dedans au plus vite.
Administrateur général. Je modère dans cette couleur.

Rejoignez Melandis, la Cité du Chaos
La biographie de Mornagest ainsi que ses quêtes et sa couleur RP #6C84FF ; la biographie de Henk et sa couleur RP #3BBB34

"Ne vous imaginez pas être différente de ce qu'il eût pu sembler à autrui que vous fussiez ou eussiez pu être en restant identique à ce que vous fûtes sans jamais paraître autre que vous n'étiez avant d'être devenue ce que vous êtes."
(Lewis Caroll)
Avatar du membre
loupgris
Élémentaire de feu
Messages : 2315
Enregistré le : jeu. 31 oct. 2019, 19:39
Statut : Hors ligne
.

Message par loupgris »

Malheureusement, c'est le propre de l'humanité, on ne peut qu'espérer raison gardée au minimum, j'en conviens.
Avatar du membre
Le Marquis
d'Oghmatique
Golem de pierre
Messages : 3470
Enregistré le : jeu. 17 juil. 2008, 15:45
Localisation : Sudiste
Statut : Hors ligne
.

Message par Le Marquis »

Mornagest a écrit : ven. 14 févr. 2025, 11:25 Juste réaliste. Le monde qui nous entoure démontre chaque jour que la technologie nous mène tout droit dans le gouffre, et on accélère en permanence pour se jeter dedans au plus vite.
Hum, non. Ce n'est pas la technologie qui pose problème, c'est son utilisation de masse. C'est le manque de réflexion ou de régulation autour d'elle le vrai problème.
I believe in possibility
I believe someone's watching over me
And finally I have found a way to be
Happy, happy
Avatar du membre
Mornagest
Grand Gourou
Élu de Mystra
Messages : 19272
Enregistré le : ven. 17 oct. 2003, 10:48
Localisation : Juste derrière vous, prêt à hurler BOUH !
Statut : Hors ligne
.

Message par Mornagest »

Le constat reste le même, on va droit vers la catastrophe.

Quant à une utilisation vertueuse d'une technologie, j'y crois moyen. Car on sait qu'un marteau peut certes servir à planter des clous, mais aussi à défoncer un crâne. Or, il me semble qu'il y a beaucoup de technologie autour de nous qui peut facilement être détournée de son usage premier... sans parler des objets directement conçus pour détruire ou tuer.

Bref, sinon, je vais bien, je vous rassure ;) l'IA va juste contribuer à accélérer la chute de l'humanité. Pas de quoi se faire peur.
Administrateur général. Je modère dans cette couleur.

Rejoignez Melandis, la Cité du Chaos
La biographie de Mornagest ainsi que ses quêtes et sa couleur RP #6C84FF ; la biographie de Henk et sa couleur RP #3BBB34

"Ne vous imaginez pas être différente de ce qu'il eût pu sembler à autrui que vous fussiez ou eussiez pu être en restant identique à ce que vous fûtes sans jamais paraître autre que vous n'étiez avant d'être devenue ce que vous êtes."
(Lewis Caroll)
Avatar du membre
Le Marquis
d'Oghmatique
Golem de pierre
Messages : 3470
Enregistré le : jeu. 17 juil. 2008, 15:45
Localisation : Sudiste
Statut : Hors ligne
.

Message par Le Marquis »

Mornagest a écrit : ven. 14 févr. 2025, 12:41 Le constat reste le même, on va droit vers la catastrophe.
Or, il me semble qu'il y a beaucoup de technologie autour de nous qui peut facilement être détournée de son usage premier...
Toute technologie peut être détournée de son usage premier, sans exception.
L'homo sapiens 2025 n'est pas l'évolution ultime de la vie. Comme d'autres avancées technologiques autrefois, l'IA contribuera à modifier ce que nous sommes et à nous faire évoluer. Le seul problème est que ça va maintenant beaucoup trop vite pour qu'on ait le temps de bien l'appréhender, donc de fortes secousses sont probables dans les années qui viennent.
I believe in possibility
I believe someone's watching over me
And finally I have found a way to be
Happy, happy
Avatar du membre
Mornagest
Grand Gourou
Élu de Mystra
Messages : 19272
Enregistré le : ven. 17 oct. 2003, 10:48
Localisation : Juste derrière vous, prêt à hurler BOUH !
Statut : Hors ligne
.

Message par Mornagest »

Les autres facteurs en jeu, c'est aussi la raréfaction des ressources, la pollution de l'ensemble de l'environnement, la surpopulation mondiale et la montée généralisée de l'extrême droite dans ce qui était autrefois de vagues démocraties.

De quoi envisager l'avenir avec sérénité : l'IA va sauver tout le monde (blanc mâle riche).
Administrateur général. Je modère dans cette couleur.

Rejoignez Melandis, la Cité du Chaos
La biographie de Mornagest ainsi que ses quêtes et sa couleur RP #6C84FF ; la biographie de Henk et sa couleur RP #3BBB34

"Ne vous imaginez pas être différente de ce qu'il eût pu sembler à autrui que vous fussiez ou eussiez pu être en restant identique à ce que vous fûtes sans jamais paraître autre que vous n'étiez avant d'être devenue ce que vous êtes."
(Lewis Caroll)
Avatar du membre
Le Marquis
d'Oghmatique
Golem de pierre
Messages : 3470
Enregistré le : jeu. 17 juil. 2008, 15:45
Localisation : Sudiste
Statut : Hors ligne
.

Message par Le Marquis »

Mornagest a écrit : ven. 14 févr. 2025, 13:27 Les autres facteurs en jeu, c'est aussi la raréfaction des ressources, la pollution de l'ensemble de l'environnement, la surpopulation mondiale et la montée généralisée de l'extrême droite dans ce qui était autrefois de vagues démocraties.

De quoi envisager l'avenir avec sérénité : l'IA va sauver tout le monde (blanc mâle riche).
Je ne sais pas si l'IA sauvera le monde, mais l'utiliser pour cela est probablement mieux que ce qu'on fait maintenant, c'est à dire presque rien.
Je vais arrêter là car d'une part on s'éloigne trop du sujet de ce topic, et d'autre part ta posture de chevalier blanc défenseur de toutes les causes à la mode me fait craindre le pire pour la suite ;) A plus.
I believe in possibility
I believe someone's watching over me
And finally I have found a way to be
Happy, happy
Avatar du membre
loupgris
Élémentaire de feu
Messages : 2315
Enregistré le : jeu. 31 oct. 2019, 19:39
Statut : Hors ligne
.

Message par loupgris »

https://www.youtube.com/watch?v=vB9r79LrBgQ
Pour détendre l'atmosphère :D
De quoi envisager l'avenir avec sérénité : l'IA va sauver tout le monde (blanc mâle riche).
Super ! (joke)
Modifié en dernier par vv221 le ven. 14 févr. 2025, 15:23, modifié 2 fois.
Avatar du membre
Mornagest
Grand Gourou
Élu de Mystra
Messages : 19272
Enregistré le : ven. 17 oct. 2003, 10:48
Localisation : Juste derrière vous, prêt à hurler BOUH !
Statut : Hors ligne
.

Message par Mornagest »

Le Marquis a écrit : ven. 14 févr. 2025, 13:52
Mornagest a écrit : ven. 14 févr. 2025, 13:27 Les autres facteurs en jeu, c'est aussi la raréfaction des ressources, la pollution de l'ensemble de l'environnement, la surpopulation mondiale et la montée généralisée de l'extrême droite dans ce qui était autrefois de vagues démocraties.

De quoi envisager l'avenir avec sérénité : l'IA va sauver tout le monde (blanc mâle riche).
Je ne sais pas si l'IA sauvera le monde, mais l'utiliser pour cela est probablement mieux que ce qu'on fait maintenant, c'est à dire presque rien.
Je vais arrêter là car d'une part on s'éloigne trop du sujet de ce topic, et d'autre part ta posture de chevalier blanc défenseur de toutes les causes à la mode me fait craindre le pire pour la suite ;) A plus.
Je ne défends aucune cause à la mode* (en tout cas, je ne suis aucune mode à ce sujet, ni à aucun autre en fait :gign:). Je dis juste que les choses ne vont pas s'améliorer avec l'avènement de l'IA. Je n'ai aucune prétention de dire ce qu'il faut faire ou pas faire, si c'est ça qui te tracasse. Je me contente de constater.

* les sujets que j'évoque sont quand même discutés depuis les années 50-60, c'est pas vraiment à la mode, je trouve :p
Administrateur général. Je modère dans cette couleur.

Rejoignez Melandis, la Cité du Chaos
La biographie de Mornagest ainsi que ses quêtes et sa couleur RP #6C84FF ; la biographie de Henk et sa couleur RP #3BBB34

"Ne vous imaginez pas être différente de ce qu'il eût pu sembler à autrui que vous fussiez ou eussiez pu être en restant identique à ce que vous fûtes sans jamais paraître autre que vous n'étiez avant d'être devenue ce que vous êtes."
(Lewis Caroll)
JohnBob
d'Oghmatique
Troll
Messages : 1456
Enregistré le : mar. 28 sept. 2021, 19:52
Localisation : France
Statut : Hors ligne
.

Message par JohnBob »

Bon je sais pas trop si je fais bien de poster mais tant pis...

Je suis assez d'accord que le problème vient du facteur humain, pas de la technologie en elle même...

Par contre je vois pas trop le problème avec le point de vue de Mornagest, ce n'est pas être un chevalier blanc que de constater que l'IA est un facteur aggravant, mal compris par les masses et utiliser par un petit nombre de personnes pour dicter leur vision étriquée.

Si vous pensez que les causes à défendre ne sont qu'une mode c'est que vous ne voulez pas voir comment fonctionne le monde actuel ainsi que la souffrance qui en découle.

Il y a une différence entre la propagande à des fins personnelles et défendre quelque chose qui mérite de l'être.

L'évolution d'une société ou de l'humanité ne devrait pas entraver celle de la nature ou de la pensée multiple.

Le bonheur et l’épanouissement humain vient de la pluralité que ce soit chez les espèces animales et végétales ou bien les différentes cultures et formes de pensés.

Donc oui l'IA pourrait être un outil formidable pour un futur radieux, malheureusement l'histoire et la conjoncture du moment peuvent légitimement faire redouter le pire.

En tout cas merci Elzen pour ces explications détaillées sur ce sujet plutôt vaste.
Modifié en dernier par JohnBob le ven. 14 févr. 2025, 14:56, modifié 2 fois.
Répondre

Retourner vers « Informatik' »

Qui est en ligne

Utilisateurs parcourant ce forum : Aucun utilisateur enregistré et 0 invité