IA agentique : les agents IA débarquent dans vos logiciels métiers
3 ans après le décollage spectaculaire de l’IA générative, l’IA agentique et ses possibilités inédites d’autonomie et d’automatisation intelligente occupent le devant de la scène. On vous explique de quoi il s’agit et les domaines dans lesquels les agents IA sont déjà très présents, pour ne pas dire incontournables.
L’IA agentique, tout le monde en parle… Certains s’enthousiasment, d’autres s’inquiètent, d’autre encore relativisent l’importance de son « avènement » en arguant, à juste titre, que la notion d’« agent » est une constante discursive depuis les débuts de l’intelligence artificielle. Qu’y a-t-il de nouveau dans ce concept pour qu’il suscite autant de réactions ? Peut-être simplement ceci : la possibilité pour un système logiciel d’exécuter des actions de manière autonome pour atteindre un objectif défini. Avant les grands modèles de langage (LLM) et leurs applications génératives, cette autonomie était hors de portée : le chemin à emprunter pour obtenir un résultat dans un champs donné devait obligatoirement être codé.
Qu’est-ce qu’un agent IA ?
Globalement, l’IA agentique fait référence aux systèmes d’IA qui peuvent fonctionner avec un certain degré d’indépendance, prendre des décisions et entreprendre des actions pour atteindre des objectifs spécifiques. L’agent IA est en quelque sorte la maille élémentaire de ce type de systèmes et peut être défini comme le couplage d’un LLM avec un ou plusieurs outils que le modèle peut invoquer de manière autonome. Là où les LLM seuls ne font que générer du texte sur des bases probabilistes et sans capacité d’action, les agents IA leur ajoutent une couche fonctionnelle en leur donnant la capacité d’activer des outils externes tels qu’un moteur de recherche ou des fonctionnalités logicielles préexistantes.
Pour illustrer ce que cela signifie, imaginez un assistant virtuel capable de comprendre votre demande « quel est le statut de la mission ZT312 ? ». Face à cette requête textuelle, l’agent IA identifie automatiquement qu’il doit consulter votre système de gestion, y rechercher l’information et vous la restituer de façon claire. Le tout sans que vous ayez à naviguer dans des menus, cliquer sur des boutons ou même savoir précisément où se trouve cette information dans votre logiciel.
Tout cela n’a rien de « magique » : ce sont bien des humains qui définissent l’objet de l’agent IA, les outils à sa disposition, le type et la structure des réponses attendues ainsi que le niveau de contrôle sur les résultats.
Les agents IA en première ligne du service client
En décembre 2024, la start-up Artisan a lancé outre-Atlantique une campagne clamant « Arrêtez d’embaucher des humains. L’ère des employés IA est arrivée ». Le caractère dystopique du message a suscité une levée de boucliers dans les professions se sentant les plus menacées par les avancées de l’IA (développeurs, créatifs, juristes…). En réalité, c’est dans les métiers du service client et de la relation client que la pénétration de l’IA a le plus progressé et que l’IA agentique démontre d’ores et déjà son potentiel grâce à l’intégration d’agents IA dans les logiciels de centre de contact et les solutions de ticketing. Loin du fantasme du « remplacement » des employés par des IA, ces agents s’avèrent particulièrement efficaces pour automatiser les tâches répétitives et améliorer l’expérience client.
Voici 5 scénarios où l’IA agentique démontre déjà sa valeur ajoutée.
Reconnaissance et contextualisation automatiques — Un client appelle le service client. Avant, un système automatisé basé sur un arbre de décision rigide lui proposait de « Taper 1 pour les commandes, 2 pour le SAV, 3 pour la facturation… ». Avec un agent IA placé en début de parcours, le système orchestre automatiquement plusieurs outils. Dès la connexion, un premier outil identifie le client à partir de son numéro de téléphone et récupère son profil dans le CRM. Un deuxième outil consulte l’historique de ses interactions récentes (commandes, tickets de support, échanges précédents). Lorsque le client formule sa demande en langage naturel, le LLM analyse l’intention et active un troisième outil de recherche dans la base de données transactionnelle. En quelques secondes, l’agent IA a compris qu’il s’agit d’une réclamation relative à une livraison en retard, a identifié la commande concernée et peut soit apporter une réponse immédiate, soit router intelligemment vers le bon service avec tout le contexte déjà rassemblé. Le client n’a eu qu’à expliquer son problème, sans naviguer dans aucun menu.
Traitement autonome des demandes courantes – Par mail ou via le chatbot du service client, un client demande un remboursement pour un produit défectueux. L’agent IA active successivement plusieurs outils : un outil de récupération des données de commande qui extrait tous les détails de l’achat (date, montant, produit), un outil de vérification des conditions contractuelles qui consulte automatiquement la politique de retours de l’entreprise et confirme que le délai est respecté. Ensuite, un outil de contrôle de conformité vérifie l’état du compte client (pas d’abus antérieur, paiement effectué). Enfin, si toutes les conditions sont remplies, l’agent IA déclenche un quatrième outil qui initie le remboursement dans le système comptable et envoie un mail de confirmation au client. Ce qui nécessitait auparavant l’intervention d’un conseiller obligé de consulter 4 systèmes différents (en moyenne 8 à 10 minutes) se résout désormais de manière autonome en quelques secondes. En revanche, si les conditions ne sont pas réunies, un outil d’escalade redirige la demande vers un conseiller à même de trancher la situation et d’informer le client de la décision finale.
Hiérarchisation intelligente et routage optimal – Une demande arrive par mail. Contrairement aux systèmes de tickets traditionnels qui appliquent des règles fixes basées sur des mots-clés, l’agent IA utilise trois outils de manière coordonnée. D’abord, un outil d’analyse sémantique évalue le contenu réel du message pour comprendre la nature exacte du problème (pas seulement détecter le mot « urgent » mais comprendre si la situation l’est vraiment). Ensuite, un outil de scoring croise cette analyse avec le profil client (valeur du compte, historique de satisfaction) et le contexte métier (contrat avec engagement de service, impact sur l’activité du client). Enfin, un outil de matching identifie dans la base de connaissances les résolutions similaires passées et détermine quel expert a le meilleur taux de résolution sur ce type de problème. Le ticket est alors automatiquement assigné avec le bon niveau de priorité et au meilleur interlocuteur. Le gain majeur ici ? L’optimisation des ressources expertes qui traitent les bonnes demandes au bon moment, réduisant les temps de résolution de 40% en moyenne.
Formulation de réponses personnalisées – Un client pose une question technique sur un produit. L’agent IA combine quatre outils pour générer une réponse adaptée. Un outil de recherche documentaire parcourt votre base de connaissances et identifie les informations pertinentes. Un outil d’analyse du profil client détermine le niveau d’expertise du demandeur (novice ou utilisateur avancé) et ses préférences de communication (concis ou détaillé). Un outil de récupération contextuelle extrait les précédentes interactions pour assurer la cohérence. Enfin, le LLM synthétise ces éléments pour rédiger une réponse qui reprend le ton du client, adapte le niveau de détail technique et fait référence au contexte spécifique de sa situation. Contrairement aux réponses standardisées des FAQ automatiques, cette approche se traduit par des taux de satisfaction très élevés car chaque réponse est unique et perçue comme telle par celui à qui elle s’adresse.
Disponibilité 24/7 et gestion des pics/crises – Le bénéfice le plus évident de l’IA agentique est sans doute la continuité de service. Un agent IA ne dort jamais, ne prend pas de congés et peut traiter simultanément des milliers de demandes. Par exemple, un pic de demandes survient à 3h du matin chez un fournisseur d’accès internet suite à un incident technique affectant ses services destinés aux entreprises. Face à cet afflux, l’agent IA active un outil de détection d’anomalies qui repère et confirme la récurrence du problème dans les demandes entrantes. Un outil de consultation de la base d’incidents reconnaît le problème comme déjà documenté et extrait la procédure de résolution. L’agent IA génère alors automatiquement des réponses personnalisées pour chaque client impacté, en adaptant les explications à leur situation (certains clients ont besoin d’une solution de contournement immédiate, d’autres d’une estimation de rétablissement). Parallèlement, un outil de notification alerte les équipes techniques et leur fournit une synthèse de la situation ainsi qu’un rappel des étapes de résolution du problème.
>> La différence fondamentale avec les systèmes antérieurs ? Là où les chatbots classiques suivaient des scripts prédéfinis et échouaient dès qu’on sortait du cadre prévu, les agents IA comprennent le contexte, s’adaptent à des situations inédites et orchestrent intelligemment les ressources mises à leur disposition. Ces agents IA ne remplacent pas l’humain sur les cas complexes nécessitant empathie et jugement, mais libèrent les équipes des tâches répétitives pour qu’elles se concentrent sur la valeur ajoutée relationnelle.
>> Les avancées rapides de l’IA agentique dans les métiers du service client préfigurent ce qu’il va se passer dans les deux prochaines années dans d’autres champs d’application, avec deux dominantes : l’amélioration de l’expérience utilisateur et l’automatisation intelligente de chaîne d’actions qui nécessitaient jusqu’ici l’intervention d’un ou plusieurs opérateurs humains.
Nomadia et l’IA agentique
Chez Nomadia, l’enthousiasme autour de l’IA agentique ne s’entend qu’en prenant en considération deux exigences fondamentales : la sobriété numérique et la souveraineté technologique. Dans les applications agentiques sur lesquelles nous travaillons, la question de l’impact écologique est centrale. Un agent IA consomme dix fois plus de ressources énergétiques qu’un LLM seul. Chaque interaction réinjecte en effet dans le circuit l’intégralité du contexte, multipliant la consommation de tokens et donc l’empreinte énergétique. Pour cette raison, nous privilégions toujours l’approche la plus économe ce qui implique une sélection drastique des cas d’usage et des choix assumés en matière d’architecture.
L’hébergement local et le choix de partenaires responsables sont des piliers de notre approche en matière d’intelligence artificielle. Contrairement à ce qui peut être affirmé, nous n’hébergeons pas en interne de large language models (LLM) en production — sauf dans un cadre expérimental — mais uniquement des modèles de machine learning et de deep learningdédiés à la reconnaissance et au traitement d’images. Cela nous permet d’éviter les modèles LLM multimodaux, dont l’impact environnemental est nettement plus élevé.
Pour les fonctionnalités basées sur des modèles de langage, nous avons choisi de travailler avec Mistral AI, un fournisseur européen dont les modèles sont moins consommateurs de ressources et qui sont adaptés à nos cas d’usage. Mistral AI s’efforce d’apporter davantage de transparence sur l’impact environnemental de ses modèles : sa première étude publiée sur le bilan carbone et la consommation d’eau de son modèle Mistral Large 2 a été réalisée avec des partenaires externes indépendants (Ademe, Carbone 4) et selon une méthodologie reconnue (Frugal AI, conforme aux normes internationales*). LeMagIT+1
Ce positionnement répond à deux objectifs : réduire l’impact environnemental global en évitant des architectures LLM plus lourdes, et maîtriser entièrement la production, le déploiement et l’évolution de nos solutions d’intelligence artificielle, tout en s’appuyant sur un acteur européen conforme à nos exigences de souveraineté et de transparence dans un secteur où une transparence complète fait encore défaut.
Nous garantissons également ainsi que les données de nos clients restent strictement confidentielles, répondant aux exigences RGPD sans compromis. Notre partenariat avec Mistral, acteur français de l’IA, s’inscrit dans cette logique. Au-delà de la souveraineté numérique, Mistral propose des modèles reconnus comme les plus sobres du marché, avec — pour nos cas d’usage spécifiques — une qualité de résultats équivalente à celle des LLM des géants américains.
Pour nous, l’IA agentique n’est ni un gadget marketing ni une solution miracle. C’est un outil puissant qui, utilisé avec discernement, peut véritablement simplifier le quotidien de nos utilisateurs et améliorer l’efficacité de leurs opérations. Mais cet outil doit être déployé avec méthode, sobriété et maîtrise technique. C’est ce à quoi nous nous engageons : vous faire bénéficier des avancées technologiques et vous accompagner dans leur intégration, tout en vous aidant à valoriser vos savoir-faire et à minimiser l’impact environnemental de vos activités.