La suite arrive, mais je n'aime pas double-poster alors j'attendais que quelqu'un s'exprime !

Donc, parlons d'avenir.
Avant toute chose, rappelons que, si le nom d'« IA » est particulièrement nébuleux et recouvre plusieurs choses, l'informatique en général et l'apprentissage machine en particulier sont des domaines de recherche, et qu'il est assez délicat de prédire les résultats de la recherche scientifique. À plus forte raison quand son financement est lui-même assez imprédictible comme c'est le cas en ce moment.
Ce domaine en particulier est déjà historiquement le sujet de nombreux échecs assez retentissants dans les prédictions ; certaines personnes ne manqueront pas de vous sortir des remarques de spécialistes du sujet, des années 80 à nos jours, qui annonçaient que telle chose serait possible d'ici quelques années quand il en a en pratique fallu plus de vingt, ou au contraire que telle chose n'avait aucune chance de se produire avant longtemps, alors qu'elles sont arrivées en pratique plutôt vite. Prenons donc ce qui va suivre avec les quelques pincettes d'usage.
On a d'ailleurs eu un très bon exemple de prédiction erronée en ce début d'année 2025 : considérant la puissance de calcul énorme dont ils avaient besoin pour entraîner leurs modèles, les américains ont cru se garantir une sorte d'exclusivité en interdisant la vente du matériel suffisamment puissant pour ça… jusqu'à voir débarquer DeepSeek, le ChatGPT chinois, mieux optimisé pour être entraîné sur du matériel beaucoup moins performant (ce qui a évidemment entraîné quelques moqueries pour ce pauvre ChatGPT qui se retrouvait à perdre son boulot, étant remplacé par une IA

).
Il n'empêche que, même si DeepSeek a montré qu'on gaspillait sacrément plus que ce dont il y aurait réellement eu besoin, l'apprentissage machine a besoin d'une grande puissance de calcul pour être entraînée, et que cette puissance de calcul a un coût environnemental loin d'être négligeable. Aux USA, Microsoft a carrément dû faire rallumer une centrale nucléaire à Three Miles Island pour alimenter ses centres de données. Et quand il n'y a pas de nucléaire à portée, ça carbure souvent au charbon, évidemment.
Ce qui, à une période où le dérèglement climatique s'emballe et où on pollue déjà beaucoup trop avec tous nos autres usages, n'est pas spécialement une chouette nouvelle. Jusque là, il semble que les outils comme ChatGPT ne consomment pas trop
à l'utilisation (de l'ordre de grandeur d'autres services utilisés intensivement comme le moteur de recherche de Google, c'est-à-dire que le coût ne se compte pas « à la requête », mais plutôt
au nombre de machines à entretenir), mais le coût d'entraînement de nouveaux modèles, lui, est franchement problématique, d'autant plus quand chaque entreprise qui veut se lancer dans cette activité à la mode recommence à faire dans son coin ce que les autres ont déjà fait à côté.
(Et au passage, je parle ici d'électricité, mais il faudrait aussi prendre en compte le problème
de l'eau qui est loin d'être anodin.)
En pratique, donc, si on a assez peu de raisons d'avoir peur qu'une IA devenue consciente décide de nous exterminer, on est en revanche beaucoup plus proches d'une situation où l'« IA » contribue assez fortement à ce qu'on s'extermine nous-mêmes (mais gardons les proportions à l'esprit : la pollution du secteur des transports, par exemple, est encore très loin de venir majoritairement des voitures autonomes, les avions ont encore pas mal de marge).
Quand certaines personnes clament que l'« IA » va résoudre le problème du changement climatique, c'est ce qu'on appelle du
techno-solutionnisme, la croyance aveugle qu'une solution technique va miraculeusement apparaître pour résoudre des problèmes qui sont par nature politique et nécessitent d'être traités comme tels. Et je pèse le « miraculeusement », car environ rien de ce qui est à la mode en ce moment question « IA » ne porte sur les questions d'environnement : le mieux qu'on puisse espérer en l'état, c'est qu'une « hallucination » de ChatGPT ou d'un de ses équivalents inspire accidentellement des scientifiques…
(Et il faut sans doute ajouter à ça le fait que le pays dans lequel est présentement fait le gros du boulot sur les « IA » génératives est désormais aussi le pays dans lequel l'usage du mot « climat » est interdit dans les publis scientifiques.)
Donc bon, la situation générale n'est pas terrible. Qu'en est-il des progrès de l'« IA » elle-même sur ses domaines d'application ? Ben, on l'a déjà rapidement évoqué plus haut, même en se limitant à l'« IA » au sens de « ce qu'on fait apprendre à la machine plutôt que de lui donner directement des instructions », il faut quand même distinguer pas mal, parce que ça couvre des domaines et des technos assez différentes.
On a par exemple d'assez bonnes choses à attendre de l'apprentissage machine en médecine, pour la détection de tumeurs par exemple ; mais c'est quelque chose qui, à part la structure générale en réseau de neurones, n'a en fait pas grand chose en commun avec les LLM et « IA génératives », donc pousser le développement de ces dernières n'apportera rien pour la santé.
Concernant les « IA génératives », on couvre déjà à peu près tous les domaines de « génération » (texte, image, musique, vidéo…), donc la probabilité d'une toute nouvelle branche s'amenuise. Il reste bien sûr des ratés assez notables dans ce qui est produit de cette manière, mais, comme ça a été évoqué plus haut, ce sont des conséquences logiques de la façon dont ces outils fonctionnent : améliorer les processus d'entraînement ne fera vraisemblablement jamais disparaître complètement les « hallucinations ».
Plusieurs « IA génératives » ont été proposées en tentant de mettre en avant une plus grande fiabilité (perplexity, notamment) en changeant un peu de façon de faire : plutôt que de générer du texte juste à partir de leur état d'entraînement, ces outils effectuent des recherches Internet plus classiques par mots-clefs, puis produisent un résumé des pages web ainsi récupérées.
C'est une plutôt bonne application des forces de l'outil, puisque reformuler un texte conduit globalement à un résultat un peu plus fiable (ça ne l'est toujours pas complètement…) qu'une génération plus « libre » (et ça permet aussi de sourcer un peu mieux, puisqu'il y a dans ce cas véritablement une source existante à proposer), mais on peut aussi considérer cette façon de faire comme un constat d'échec vis-à-vis de ce qui était promis : adopter ce mode de fonctionnement revient à reconnaître que la recherche classique par mots-clefs et les sources humaines sont une manière bien plus efficace d'obtenir des informations.
Constat d'échec qui n'est pas encore suffisamment partagé, ceci dit, visiblement, puisque nos ministres en sont encore à vouloir intégrer de force l'« IA générative » à l'école (évidemment sans former les profs, et alors que le besoin concret serait surtout d'en recruter pas mal plus) et que les patrons continuent de vouloir virer les gens qui travaillent dans la traduction ou dans la programmation informatique, sous prétexte que l'« IA » ferait le taff de façon plus économique… avant de chercher en urgence à récupérer des êtres humains quand ils se rendent compte qu'il y a
vraiment besoin de repasser derrière.
Rien de nouveau là-dedans, en fait, ce n'est que la dernière accélération en date de logiques qu'on rencontre depuis la révolution industrielle. Ce qui ne veut pas dire pour autant que c'est inéluctable et qu'il faut l'accepter comme ça, et on peut encore essayer de
changer les choses.
Mais en attendant, on peut quand même constater qu'on est assez loin de ce qu'envisageait la science-fiction, y compris sur les aspects plus positifs : on espérait que les progrès techniques nous débarrasserait des corvées pour nous permettre de nous consacrer aux arts et à la philo, on nous vend à la place un outil qui produit des images et des romans, mais pas grand chose pour s'occuper du linge.
C'est aussi un point intéressant qu'on peut soulever concernant l'avenir de l'« IA », qu'on a en fait déjà évoqué rapidement avec le test du café : quelle que soit notre facilité à rendre des programmes autonomes à l'intérieur de leur ordinateur, c'est un peu plus délicat de traduire un apprentissage machine en action sur le terrain.
On y arrive relativement bien avec les voitures, parce qu'une voiture a une palette d'actions possibles relativement limité, déjà géré par des outils plus classiques : le rôle de l'« IA » est de prendre les décisions, mais les gestes à effectuer sont pour leur part déjà connus.
Un robot plus humanoïde à qui on voudrait confier des tâches du quotidien (préparer un café, mettre une machine de linge, jouer au ping-pong, ou encore jouer du piano, au sens d'appuyer sur les touches d'un piano physique plutôt que d'en reproduire directement les sons) aurait en revanche besoin, dans pas mal de cas,
d'apprendre à faire ces gestes⁽*⁾.
Or, l'apprentissage machine est fichtrement moins efficace que l'apprentissage humain, au sens où, si nous arrivons à apprendre à identifier un chat d'un chien en ne croisant que quelques animaux, il faut facilement à un réseau de neurones artificiels plusieurs millions d'exemples pour arriver à ajuster correctement ses paramètres. Et si un ordinateur peut scanner un million d'images relativement rapidement, faire un geste nécessite un certain délai physique qui ralentit considérablement un tel apprentissage, au point de le rendre assez peu envisageable dans la plupart des cas.
À moins d'un progrès considérable au niveau de la taille requise pour les corpus d'entraînement, qui pour le coup révolutionnerait tout le secteur, mais ne semble pas en chemin de pointer le bout de son nez, l'autonomie des machines restera toujours limitée par le fait qu'il restera nécessaire de concevoir des dispositifs adaptés aux gestes spécifiques qu'on veut leur faire faire, et qu'on ne pourra pas juste leur donner le plus grand degré de liberté mécanique possible et les laisser s'adapter par eux-mêmes.
Encore une fois, en l'état, ce n'est pas franchement la peine d'avoir peur spécifiquement du T-1000 : si un drone tueur vient pour vous, il sera télécommandé par des êtres humains, comme ça se fait déjà sans « IA ».
En revanche, un dernier point qu'on peut aborder pour conclure cette partie est qu'il n'est pas impossible que, dans un futur plus ou moins proche, l'« IA générative » en vienne à se tuer elle-même (avec quand même un peu de concours de notre part, évidemment).
En effet, il a déjà été montré à plusieurs reprises qu'un prédicteur de texte entraîné majoritairement sur des textes générés par « IA » donne des résultats assez nuls. Même sur de la reformulation d'un texte qui lui est fourni (ce qui, on vient de le voir, est plutôt dans ce qu'ils font bien), on arrive assez vite à des phrases qui n'ont aucun sens et/ou qui parlent de complètement autre chose.
Or, depuis l'avènement de ChatGPT, les textes générés par « IA » sont de plus en plus nombreux sur Internet, et les distinguer des textes humains n'est pas forcément évident, surtout quand on veut produire des corpus de plusieurs millions de textes (les outils d'apprentissage automatique à ce sujet ont pour l'instant des résultats assez peu fiables).
À moins de travaux importants sur ce type de questions (ce qui ne semble pas être dans les priorités des programmes de recherche actuels), il semble donc assez prévisible que les prochaines générations d'outils génératifs (toutes catégories, la même chose vaut aussi pour la génération d'images) soient progressivement « empoisonnées » par ce que les actuelles ont déjà produit et continuent de produire, et que les progrès réalisés sur le processus d'entraînement soient fortement contrebalancés par la dégradation des corpus.
Car en effet, ce mode d'apprentissage, en tirant des statistiques d'un grand nombre de documents, conduit assez facilement à amplifier certains biais qu'on peut y trouver, ce qui n'est pas spécialement quelque chose de très cool. On tentera d'évoquer un peu ça dans la prochaine et probablement avant-dernière partie !
(∗) Ce sujet est d'ailleurs évoqué dans une nouvelle du cycle des robots d'Asimov que je ne résiste pas à vous
spoiler : pour éviter de risquer une vie humaine, on a envoyé un robot humanoïde piloter une navette spatiale, sauf que tout ne se passe pas comme prévu. Des humains se rendent sur place pour tenter de comprendre le souci, et le comprennent effectivement assez vite une fois qu'ils ont réussi à rejoindre le robot dans la cabine de pilotage : on lui a donné pour instruction de s'installer sur le siège du pilote et de « tirer fort » sur un levier… et compte tenu de la puissance physique du robot, ledit levier a cassé et lui est resté dans la main.