Passer au contenu principal Skip to footer
Cognizant Blog

La révolution des multi-agents est en marche et les entreprises commencent à déceler dans cette transformation l’impact le plus manifeste de l’IA générative : des agents d’intelligence artificielle capables d’interagir non plus seulement avec l’être humain mais directement… entre eux. Quelle entreprise dessinent-ils pour demain ? Comment maîtriser cette nouvelle technologie ? Cet article vous donne toutes les clés pour comprendre.

À bien des égards, les entreprises sont des écosystèmes. C’est-à-dire des environnements vivants, mouvants, réactifs, qui évoluent et se transforment au gré des inflexions internes et externes de leur milieu. Un délai sur une chaîne logistique ? C’est tout le staffing des centres opérationnels qui se trouve affecté. Une réglementation sur la décarbonation Scope 3 ? C’est le choix des fournisseurs qui est à revoir. Une perte de clientèle observée sur le CRM ? L’origine est peut-être à chercher du côté de défaillances du produit...

Dans cet écosystème, tout n’est que vases communicants et interconnexions : objectifs business, activités, indicateurs… les business units des entreprises évoluent désormais en organisations intégrées.

Et pourtant, les systèmes informatiques, eux, restent désespérément cloisonnés. Un système RH ne peut pas « dialoguer » avec le logiciel de supply chain, même en cas de délai. Les bases de données fournisseurs ne sont pas connectées aux indicateurs de suivi de la durabilité. Et le CRM n’est aucunement relié au développement produit, rendant illusoire ou asynchrone toute tentative de corrélation. Si une action est entreprise sur la base d’une information livrée par un système voisin, alors il s’agit souvent d’une action unique correspondant à une fonctionnalité isolée. Une corrélation ponctuelle et ciblée sur une seule problématique.

Que se passerait-il à l’inverse si tous les systèmes pouvaient communiquer entre eux au même moment ? Si le périmètre informationnel de l’entreprise ne se limitait pas à un logiciel unique ou une plateforme unique, mais à toute l’entreprise, dans toutes ses représentations informatiques ? Et si les recommandations d’actions poussées par un système ne s’appliquaient pas seulement à une fonctionnalité en particulier, mais à toutes les activités concernées de l’entreprise ?

Voici le principe et la promesse de ce qu’on nomme les « systèmes d’intelligence artificielle multi-agents ». En concentrant toutes leurs opérations sous une seule interface animée par des agents IA, les entreprises ont l’opportunité de gagner en efficacité et en qualité. 

Le potentiel de transformation de cette technologie est immense et certaines entreprises ont commencé à s’y intéresser. Nous tentons dans cet article d’expliciter l’intérêt de ces multi-agents et d’en décrire le fonctionnement.

Les multi-agents : concepts et définitions

D’un point de vue historique, le concept de systèmes multi-agents n’est pas tout à fait nouveau. En réalité, le sujet existe depuis les années 1980 quand de nombreux pionniers de la technologie cherchaient à créer une entité logicielle unique, fondée sur l’intelligence artificielle. Leurs tentatives se soldèrent toutes par un échec car la puissance de calcul était alors insuffisante, tout comme la qualité des données et la pertinence des algorithmes se trouvaient encore restreintes. 

Quarante ans plus tard, l’arrivée de l’IA générative et son exécution autour de nouvelles capacités de langage naturel (avec l’apparition des Large Language Models ou LLMs) bouleverse ce continuum technologique.

Et même s’il ne constitue pas techniquement l’aboutissement de la réflexion autour d’une entité logicielle unique, le système d’IA multi-agents en prend tous les attributs, matérialisant de façon moderne cette idée originale.

De quoi parle-t-on ? Un système d’IA multi-agents est un réseau d’outils IA extrêmement puissants et intelligents implantés au cœur des systèmes logiciels. Parmi ceux-ci, on retrouve notamment les modèles LLM d’IA générative imbriqués au plus près des fonctionnalités, des applications, des modules ou plus largement des fonctions logicielles. Ce « système de systèmes » fournit aux agents IA la possibilité d’interagir les uns avec les autres.

Si tous les agents d’un tel système utilisent le même LLM comme langage commun (appelons-le « LLM enveloppe »), chacun d’entre eux dispose d’un système de prompts différent, généré par LLM, qui relève strictement de son périmètre. Les agents fonctionnent alors comme un groupe de travail virtuel, en analysant les prompts et en tirant l’information depuis les différentes sources de l’entreprise pour aboutir à une réponse commune, transversale, qui ira bien au-delà des besoins du requêteur original en couvrant potentiellement les problématiques des autres équipes.

Prenons un exemple : quel pourrait être l’intérêt d’un système d’IA multi-agents dans le monde de l’industrie ? Il pourrait s’agir par exemple de demander à un agent d’approvisionnement d’analyser les process existants et, en fonction de la saisonnalité et de l’évolution de la demande, de recommander des pièces et composants alternatifs plus rentables. Cet agent d’approvisionnement pourrait ensuite se mettre en lien avec un agent de durabilité pour évaluer l’impact de ces composants alternatifs sur les données environnementales, notamment sur les indicateurs de décarbonation. En complément, un agent de réglementation viendrait vérifier la conformité de ces opérations en s’assurant que les équipes fournissent, en temps et en heure, l’intégralité des informations demandées par rapport à ces changements de fourniture.

Prenons un autre exemple, orienté sur un métier et non sur un secteur : quel pourrait être l’apport de tels systèmes sur la fonction RH, et notamment sur l’accueil d’un collaborateur ? Dans ce cas concret, il est aisé d’imaginer le rôle d’un agent d’embauche qui viendrait soumettre l’offre finale au candidat et lui faire signer le contrat. Mais on peut poursuivre la réflexion en l’imaginant transmettre le dossier à un autre agent, l’agent d’accueil, qui serait responsable du suivi administratif du nouvel embauché, de la mise à disposition de la documentation de l’entreprise et de la programmation des premières semaines. Ces agents RH auraient également la possibilité de déclencher des demandes auprès des agents IT pour effectuer des tâches comme l'attribution de postes de travail et leur configuration pour les nouveaux employés.

Dernier point, plus prospectif : un champ d’application qui pourrait se montrer particulièrement intéressant pour les systèmes multi-agents est probablement l’ERP (Enterprise Resource Planning). Par définition, un système ERP qui couvre plusieurs groupes fonctionnels au sein d’une organisation aura vocation à livrer des résultats transversaux à tous ces groupes. D’où une certaine similitude avec le rôle des systèmes multi-agents. Mais là où les ERP traditionnels auront tendance à se focaliser sur les processus business, les systèmes d’IA multi-agents auront, eux, la possibilité de couvrir un plus large spectre de finalités, tout en s’intégrant dans les architectures des systèmes ERP.

Il est donc envisageable de prolonger le bénéfice des ERP grâce à des systèmes multi-agents fondés sur les LLM : les ERP pourraient ainsi manipuler des données non-structurées et des process dynamiques, en constante évolution (là où leur fonction première était d’exécuter des process prédéfinis). Cette avancée ouvre de nombreuses perspectives en matière d’autonomie et de complexité de l’aide à la décision ainsi générée.

On l’a compris : l’IA multi-agents ouvre un nouveau territoire de réflexion, d’optimisation et d’innovation pour les entreprises. Ce mouvement est désormais enclenché et il pourrait bouleverser les organisations bien plus tôt que ce que l’on anticipe.

Résoudre les problèmes de silos

Comme l’énonçait récemment le CEO d’OpenAI, Sam Altman, les agents sont sur le point de devenir les « éminences grises de l’IA » et la technologie a le potentiel pour devenir « un collègue super compétent ». Or, derrière ce terme « éminence grise » (formulé littéralement en anglais par « killer function », ndlr), se niche également la notion de discrétion, voire même de clandestinité : une façon de souligner que la bascule vers les systèmes multi-agents s’opère déjà en secret au sein des architectures.

En effet, si l’on fait un état des lieux des applications IA en entreprise, il est aisé de constater que de nombreuses organisations intègrent déjà des chatbots alimentés par les LLM au sein de leurs intranets. Et, au même moment, des départements comme les RH, la Finance, le Juridique ou l’IT ajoutent des chatbots IA à leurs applications métiers spécifiques. Malheureusement, à l’usage, ce millefeuille de chatbots est très souvent source de maladresses ou de crispations car les collaborateurs qui formulent des requêtes via le chatbot de l’intranet transversal se retrouvent fréquemment à renouveler leur demande sur les applications dédiées de chaque département ou service.

Ce silotage est un problème : les chatbots appuyés sur les LLM sont censés se coordonner et livrer une réponse unifiée – c’est en tous cas dans cette optique que les systèmes multi-agents ont été créés. D’ailleurs, les grands du secteur ne s’y sont pas trompés et souhaitent aller vite quant à l’exploration de ce concept. Selon une récente étude Gartner, le budget de l’investissement IT des entreprises mondiales devrait atteindre 1 520 milliards de dollars cette année, une hausse notable due en grande partie aux programmes et chantiers de gen AI. Et, quand on considère les tensions marquées en matière de disponibilité des talents, il est fort probable que cette excroissance de programmes IA mène à une augmentation des dépenses auprès de cabinets de conseil spécialisés. Dans son étude, Gartner note ainsi que, pour la première fois, les entreprises ont davantage dépensé d’argent sur leurs ressources externes que sur leurs ressources internes.

Une tendance qui confirme que les entreprises sont désormais prêtes à tout pour amplifier leurs programmes d’IA et garantir le maximum de profits autour de ces investissements.

Les multi-agents : mode d’emploi

Pour mieux anticiper la valeur qui peut être générée par ces systèmes de multi-agents, il est indispensable de comprendre comment fonctionnent le système, à la fois dans son ensemble et dans chacun de ses composants.

Comme évoqué plus haut, un agent d’intelligence artificielle est un modèle LLM d’IA générative qui enveloppe un module, une fonction, un service ou une base de données pour permettre à des êtres humains d’interagir avec ce programme dans un langage naturel, exactement comme ils le font déjà avec des outils comme ChatGPT (voir la Figure 1).

Figure 1 : Un agent IA

Un agent IA standard

Figure 1 un agent IA standard

Passées les premières étapes autour de cette architecture de base, on peut envisager que le système s’agrandisse pour inclure un journal des requêtes et des intentions des utilisateurs. Cela signifie que l’outil est capable d’enregistrer ce que l’agent a fait et pour quelles raisons il a enclenché telle ou telle action : désormais le système comprend le contexte des actions et est capable de décrire chaque étape en langage naturel.

Cette brique est essentielle car elle améliore la transparence, et donc la confiance, et donc in fine l’adoption des utilisateurs. Ceux-ci peuvent constater par eux-mêmes comment le système génère des recommandations et les critères mobilisés, en langage naturel. 

Cette étape est particulièrement cruciale pour convaincre des professionnels expérimentés qui pourraient se montrer sceptiques face à des recommandations IA en opposition avec leurs propres visions (lesquelles sont souvent fondées sur une information plus limitée et subjective).

Figure 2 : Un journal de bord pour garantir la conformité

Un agent IA et son journal de bord

Figure 2 Un agent IA et son journal de bord

Sur ce journal de bord peut alors se greffer une brique supplémentaire : celle de l’agent de contrôle (voir la Figure 3). Celui-ci peut observer à tout moment le comportement de l’agent, via le journal de bord. Il agit alors comme un arbitre, levant le carton rouge et informant le responsable (humain) en cas d’infraction aux règles et standards en vigueur. Cet agent de contrôle peut également prévenir certaines actions en les empêchant d’advenir (notamment l’enclenchement automatique d’une réponse de l’agent).

Si l’on prend l’exemple des questions éthiques, l’agent de contrôle peut disposer d’attributs lui permettant de s’assurer que les directives de l’entreprise sont respectées et que les réglementations sont bel et bien respectées. Il peut également intervenir si un utilisateur demande au système d’opérer dans une direction qui n’est pas conforme aux standards de l’entreprise. Enfin, il est en mesure de vérifier le niveau de fiabilité des données, et donc de limiter le nombre d’hallucinations dans un système, tout en garantissant la sécurité et la confidentialité des données.

Figure 3 : un agent de contrôle pour améliorer la confiance et la transparence

Ajouter un agent de contrôle

Figure 3 Ajouter un agent de contrôle

Maintenant, imaginons que notre application-exemple utilise un microservice (en plus de la base de données) pour gérer plus efficacement les requêtes de l’utilisateur et ses interactions avec l’outil. 

Dans ce cas précis, le système a le choix entre requêter l’utilisateur pour qu’il travaille avec un autre agent spécialisé dans ce microservice ; ou faire collaborer directement le premier agent avec ce nouvel agent, au nom de l’utilisateur.

Pour opérer ce lien, l’agent original doit être alors recevoir l’information qu’il existe un agent gérant le microservice et établir la connexion. Ils peuvent alors communiquer directement pour répondre aux demandes de l’utilisateur et comprendre réciproquement les intentions derrière le langage utilisé. Ils peuvent également s’adapter aux changements de formats et de syntaxes intervenus lors des connexions de l’utilisateur avec les services sous-jacents. Et même lorsqu’ils communiquent entre eux, ils le font en utilisant du langage naturel, ce qui permet de maintenir une totale transparence sur leurs échanges.

Avant même que vous n’en ayez pris conscience, tout l’environnement logiciel de l’entreprise et ses applications sont bientôt augmentés par les agents IA.

Figure 4 : Une entreprise augmentée par les agents

L’entreprise peuplée d’agents

Figure 4 L’entreprise peuplée d’agents
Une solution aux multiples avantages

Quels sont les avantages à opérer une migration d’une infrastructure fondée sur les logiciels et les applications vers un système fondé sur les agents ? 

Nous recensons ci-dessous la liste des (nombreux) bénéfices que ce type de paradigme peut offrir par rapport à une approche IT traditionnelle.

Sur le volet « Ethique, transparence, sécurité » :

  • Tenue d’un journal de bord : Chaque agent peut enregistrer ses actions et intentions pour chaque interaction opérée (transaction, appel, etc), ce qui augmente la transparence et la traçabilité.
  • Les agents de contrôle : L’intégration d’agents spécialisés dans le contrôle des comportements et le suivi des actions des autres agents permet de garantir un bon niveau de conformité avec des pratiques d’IA responsable et des standards d’éthique.
  • Une sécurité améliorée : Des mesures de sécurité peuvent être intégrées dans la programmation des agents individuels, ce qui traduit une vision plus granulaire des enjeux de sécurité et en permet une gestion décentralisée.

Sur le volet « Flexibilité et scalabilité »

  • Modularité : Les systèmes fondés sur les agents sont par nature hautement modulaires, permettant ainsi des mises à jour plus régulières et une maintenance facilitée. Chaque agent peut être développé, déployé et industrialisé de façon autonome sans affecter l’entièreté du système.
  • Personnalisation et adaptation progressive : De nouveaux agents peuvent être ajoutés au système, tout comme les agents existants peuvent être modifiés sans avoir à perturber l’intégralité de celui-ci. Cette progressivité permet de garantir une amélioration continue et une bonne adaptation aux contraintes d’évolution de l’environnement.

Sur le volet « Fiabilité »

Une meilleure tolérance aux erreurs : L’erreur d’un agent ne peut pas et ne doit pas provoquer la défaillance de tout le système. Les agents peuvent être ainsi conçus pour comprendre, endosser et gérer des pannes éventuelles, ce qui aura un impact fort sur la fiabilité globale du système.

Sur le volet « Efficacité et réduction des pertes »

  • Autonomie et spécialisation : Chaque agent peut se spécialiser sur une tâche précise, ce qui a pour effet d’optimiser l’exécution des fonctionnalités au sein de l’application métier.
  • Une meilleure gestion des données : Les agents peuvent gérer les données localement et ne communiquer que les informations pertinentes pour leur périmètre, ce qui aura pour impact d’abaisser les coûts liés aux transferts de données et d’améliorer la performance data.
  • Une meilleure gestion des ressources : Les agents peuvent optimiser l’usage des ressources en ajustant les opérations selon l’état des lieux du système et les montées en charge constatées. 

Sur le volet « Amélioration de l’expérience utilisateur »

  • Une communication robuste entre les agents : Les communications entre les agents sont fondées sur l’intention du message et le plus souvent formulées en langage naturel, ce qui rend les interactions plus faciles à comprendre et simplifie l’intégration du système.
  • Interopérabilité : Les agents ont la possibilité d’interagir avec une grande diversité de systèmes et de services, tout en se présentant sous forme d’interface unifiée et en privilégiant l’intégration sur plusieurs plateformes et technologies.
Premières étapes pour se lancer

Si les premières phases de déploiement des systèmes multi-agents se sont opérées de manière plutôt organique, les entreprises doivent maintenant se projeter dans une vision plus stratégique : Quelles directions souhaitent-elles prendre avec ces agents ? Quel niveau de granularité leur donner.? Quand et comment affiner les modèles pour les rendre plus efficaces ? Quels types de LLMs utiliser ?

D’autre part, il leur faudra réfléchir aux applications qui peuvent être candidates à une « agentification », car toutes n’ont pas forcément un intérêt à le devenir – les conséquences sociales et technologiques d’une autonomie totale des agents devant être prises en compte. La réflexion devra donc partir des besoins et des objectifs de l’entreprise et décliner ensuite les activités qui y participent avant de choisir celles qui peuvent bénéficier d’un agent.

Une fois ce choix effectué, un travail minutieux doit être effectué pour décrire les rôles et interactions de chacun des acteurs qui interviennent au sein des process de collaboration de cette activité précise, afin d’identifier où et comment ceux-ci peuvent être complétés par un agent IA. Cette approche diffère grandement de la stratégie qui viserait à repenser les process et la structure de l’organisation pour basculer sur des systèmes entièrement autonomes et optimisés.

Autre élément de réflexion qu’il ne faut surtout pas négliger : lors du processus « d’agentification », l’entreprise ne s’arrête pas pour autant de tourner ! L’incorporation des agents doit donc se faire de manière progressive, sans bouleverser l’activité. Et les équipes, qui continuent de jouer le rôle de moteur de l’entreprise, devront se fier à ces agents, les promouvoir et les adopter dans leurs missions quotidiennes.

Ce processus de transformation vers des systèmes multi-agents requiert donc une réflexion poussée. Mais si cette phase de préparation est correctement exécutée, l’entreprise devrait progressivement observer des améliorations quant à l’efficacité des processus et au niveau de bien-être des équipes. Pour les mesurer, les indicateurs de performance à mobiliser devraient être les mêmes que ceux retenus dans l’organisation traditionnelle. Une façon de souligner le lien ténu entre l’entreprise d’aujourd’hui, 100 % humaine, et celle de demain, appuyée en partie sur ces fameux agents autonomes.

A retenir

Pourquoi ? Avantages des multi-agents IA 

Ethique, transparence, sécurité

  • Journal de bord en continu
  • Contrôle intégré
  • Sécurité by design

Flexibilité et scalabilité

  • Modularité de principe
  • Personnalisation / adaptation progressive

Fiabilité 

  • Limitation des erreurs IA 

Efficacité et réduction des pertes

  • Autonomie / Spécialisation 
  • Gestion des données +
  • Gestion des ressources +

Expérience utilisateur + 

  • Communication inter-agents +
  • Interopérabilité 

Comment se lancer ? Premières étapes

1. Elaboration d’une stratégie

  • Directions souhaitées
  • Niveau de granularité
  • Modèles les plus efficaces
  • Types de LLMs

2. Définition d’applications à « agentifier »

  • Partir des besoins/objectifs business
  • Evaluer l’impact économique, social, environnemental
  • Définir des activités à fort bénéfice

3. Allocation des rôles et responsabilités

  • Définition des rôles
  • Cadrage du process de collaboration
  • Identification de systèmes de contrôle

4. Déploiement progressif

  • Adoption par les équipes
  • Apprentissage partagé 

Cognizant France
Author Image

Découvrez nos points de vue sur les dernières tendances digitales et tous nos conseils pratiques pour moderniser votre entreprise.



Focus
Guide pratique et complet de l'IA générative

Comprendre et appliquer l'IA générative pour votre entreprise.

forme abstraite violette et bleue

Articles récents
Sur le même sujet