2025 sera-t-elle, comme nous le promet Laurent Hassid, cofondateur et président de Chatinnov, « l’année de l’IA agentique » ? Chez Cap Digital, on s’interroge en tout cas sur ces IA agents qui semblent prendre de plus en plus d’ampleur, gagner en efficacité et se généraliser peu à peu, comme l’IA générative avant eux... Mais qu’est vraiment l’IA agentique ? À quoi peut-elle bien servir ? Quelles sont ses limites, et comment en prévenir les dérives ? Faisons le point dans cette newsletter In Progress.
Si l’on demande à ChatGPT (qui d’autre ?) ce qu’est l’IA agentique, aussi appelée IA agentive, voici ce qu’il nous répond : « c’est une intelligence artificielle conçue pour agir de manière autonome afin d’atteindre des objectifs spécifiques ». Cette IA serait capable de « percevoir son environnement, prendre des décisions et agir sur son environnement pour influencer le monde dans une direction souhaitée. »
« C’est une intelligence artificielle devenue opérationnelle, complète Véronique Ventos, co-fondatrice et chargée de recherche chez NukkAI, un programme informatique capable d’utiliser des outils mis à sa disposition pour résoudre une tâche. À la différence d’autres IA, elle est capable de faire de la planification, de se remettre en question si ses tentatives échouent, d’aller chercher des données sur un système et de prendre des décisions de manière, entre gros guillemets, ‘autonome’. »
Cette sorte de « génie d’Aladin que l’on pourrait glisser dans sa poche », l’équipe de Chatinnov l’utilise par exemple pour réaliser des études de marché complexes en un temps record. Alors qu’une analyse complète prendrait « entre 20 et 40 jours de travail pour un humain », et « plusieurs heures en s’appuyant sur l’IA générative », « voire une journée », leur outil agentique baptisé Market360 ne met, lui, que « quelques minutes ». Pour résumer 600 pages d’analyse ESG dans une grande entreprise ? L’agent prend 3 minutes. Compter deux heures pour relire son travail, et voilà des heures et des heures libérées. Le budget est aussi moindre : seulement 200 euros pour ce type de résumé, contre plusieurs milliers d’euros en temps normal…
Les sources des agents IA sont diverses : ils s’appuient entre autres sur les modèles LLM existants, en étant capables « de passer d’un modèle à l’autre en fonction de sa pertinence » ou avec la possibilité de ne sélectionner que des modèles français ou européens, mais aussi sur les actualités en ligne grâce à des outils dédiés, ou sur des documents dont on peut les nourrir (rapports d’activités, etc).
Autres cas d’usages : chez NukkAI, on travaille beaucoup sur le thème de l’éducation, « pour aider les enfants et adultes à travailler de manière active ». Un vaste projet de recherche, nommé EGO, vise à développer une suite d’agents capable par exemple « de générer automatiquement un nouvel exercice » en fonction des réponses de chaque élève. « Un outil pratique pour les petits à la maison, mais qui pourrait également aider les enseignants, notamment dans les pays où l’accès au système éducatif est encore compliqué », souligne Véronique Ventos.
« On a également de beaux progrès dans le domaine de la recommandation, avec une approche plus respectueuse des données des utilisateurs, qui pourraient intéresser le secteur du retail, la finance, ou même la culture, avec des recommandations de films sur mesure par exemple. »
Et l’humain, dans tout ça ? Et bien, n’allez pas croire que ces IA agentiques soient entièrement autonomes. « Pour avoir un bon agent qui produise des résultats pertinents, il faut y mettre beaucoup d’intelligence en amont : tout notre travail est là », estime le confondateur de Chatinnov Gérald Sézille, qui s’appuie sur le travail de spécialistes d’analyses de marchés et spécialistes en IA générative pour peaufiner le travail des agents. « Nous prenons de quelques semaines à quelques mois pour développer des agents que nous mettons ensuite à jour et améliorons constamment ».
Ce n’est pas Véronique Ventos qui dira le contraire. Chez Nukkai, on a même développé une définition propre de l’IA agentique, que l’on préfèrera nommer « systèmes d’agents », et dont on limite volontiers l’autonomie. « On garde l’humain dans la boucle, c’est lui qui donne le tempo ». « Pour nous, les systèmes d’agents sont de très bonnes interfaces pour les interactions entre humains et IA, qui doivent aller dans les deux sens. La machine a encore beaucoup besoin des retours humains, et l’humain a besoin d’explications claires de la part de la machine, qui ne doit pas être une boîte noire ».
En intégrant plus d’humain, NukkAI se réjouit aussi d’obtenir des modèles plus frugaux, moins consommateurs en énergie. Son premier modèle d’agent, capable de jouer au bridge de façon très avancée car il a été nourri par les expériences d’experts du jeu en chair et en os, a ainsi demandé « très peu de ressources », tout en fournissant « d’excellents résultats ». « On a récupéré l’expertise humaine, et on a transformé ça dans un formalisme logique, détaille Véronique Ventos. On aurait pu demander à la machine de regarder des millions de parties : l’ordinateur aurait connu les règles, mais n’aurait pas su jouer à proprement parler. Normalement, on imagine que c’est l’IA qui aide l’humain. Et bien que l’on utilise parfois l’IA générative dans nos modèles, là , on est plutôt dans le système inverse : la machine a besoin de l’humain pour l’aider à comprendre. » « Nos programmes sont capables de dire quand ils ont besoin d’aide », complète l'experte.
Outre la question de la frugalité des modèles, la fiabilité de ces IA agentiques peut également être remise en question. Nous l’avons vu : elles s’appuient souvent (et entre autres sources) sur les LLM et IA génératives. Or on connaît les « effets d’hallucination » de ces dernières, capables comme le rappelle Gérald Sézille, « d’inventer des noms de start-up qui n’existent en fait pas », et de bien d’autres fantaisies…
« La fiabilité n’est pas de 100% », reconnaît donc ce dernier. Mais « après vérification, elle serait d’environ 95% », se réjouit tout de même Laurent Hassad, avant d’ajouter : « a-t-on vraiment besoin d’aller au-delà ? ».
Sur certains sujets en effet, la remarque semble bien légitime. Les rapports générés par Chatinnov servent notamment aux équipes de vente de leurs clients. « Ce n’est pas pour minimiser l’importance de la fiabilité, note Laurent Hassid, mais ces fiches de synthèses servent avant tout à avoir un discours pertinent. Une analyse fiable à 95%, même si on travaille à améliorer ce chiffre avec des mises à jour régulières, suffit largement pour comprendre les vecteurs de croissance, le cadre réglementaire, les grandes tendances d’un marché… ». Pour lui, le tout est de trouver un équilibre satisfaisant pour toutes les parties « entre le très facile tout gratuit et le B2C très complexe et très cher ». « En l’espace de 6 mois, complète-t-il, on a déjà considérablement amélioré la qualité de ce que l’on produit. Les modèles font des pas de géant ! ».
Dans d’autres cas, la question de fiabilité et des responsabilités est évidemment plus critique. En ce moment, NukkAI travaille avec Google for Good et une ONG humanitaire sur le projet d’une application d’aide aux migrants et aux personnes en situation difficile. Une sorte d’assistant personnel de poche, basé sur le principe de l’IA agentique. Ce modèle reposera entre autres sur l’utilisation de LLM. « Or les LLM n’ont pas de conscience : il faut se méfier de ce avec quoi ils sont nourris, alerte Véronique Ventos. À partir du moment où on leur donne accès à des données très personnelles, et qu’on leur donne en plus le pouvoir de prendre des décisions, il faut plus que jamais encadrer leur utilisation, éduquer ces LLM à ces questionnements. On est en train d’ouvrir mille portes à l’IA dans notre ordinateur, notre smartphone, notre entreprise. On donne cet accès via des personnes qui ne sont pas du tout formées aux IA, et cela va trop vite. Il est primordial de prendre en compte ces nouveaux enjeux liés à l’autonomisation relative des agents. Qu’une IA générative hallucine sur un sujet léger, ce n’est pas très grave. Qu’elle hallucine, vole vos datas et vide vos comptes bancaires, c’est évidemment un autre sujet… Le danger est beaucoup plus fort ! »
Laurent Hassid parle en tout cas d’une « transformation massive des entreprises à venir », à laquelle personne ne pourra véritablement échapper. « Dès lors qu’il y aura une procédure à faire quelque part, un agent le fera ».
Pour lui, les entreprises doivent avoir « le courage de réinventer tous les métiers, et de le faire dès maintenant. » « Il y aura toujours de la peur au début, dit-il, car on a inventé les métiers du tertiaire en se disant qu'eux, ne seraient jamais remplacés par des robots... Mais la question à se poser, c'est de savoir, si nous avions plus de temps à consacrer à des tâches à haute valeur ajoutée, comment pourrions-nous utiliser les agents pour paradoxalement, amplifier la dimension humaine dans les entreprises sur d'autres postes ? »
Il nous prépare à ce changement « presque anthropologique ». « Pour la première fois de l'histoire, la machine crée quelque chose. Certains experts diront que ce n'est pas de la création pure, que l'humain est derrière, et c'est vrai, mais on s'en approche tellement... Même ce qu'on nomme hallucinations finalement, n'est-ce pas la preuve que l'IA sait désormais être créative ? N'est-ce pas la preuve qu'elle ne fait plus que restituer, mais qu'elle peut désormais suggérer de nouvelles choses ? On pourra alors la voir véritablement comme un copilote. »
Elle vous a plu ? Nous vous invitons à consulter nos archives, vous abonner ou nous contacterSinon, vous pouvez aussi vous désinscrire, on ne le prendra pas mal.
www.capdigital.com
L'action de Cap Digital est soutenue par
Cap Digital, 14, rue Alexandre Parodi, 75010 Paris, France
Gérer les préférences