Derrière le tumulte du buzz, les premiers cas d’usage voient déjà le jour dans les départements IT des grandes entreprises. Bien que discrets, ils préfigurent une adoption plus massive qui devrait se déployer en trois vagues successives. IT, métiers, monde du travail : Cognizant fait le point sur les dix années à venir et les étapes progressives de cette transformation aussi durable que profonde.
Vous en avez assez d’entendre parler d’IA générative sans en voir concrètement les applications ? Nous ne pouvons que vous inciter à la patience. Car, s’il est vrai que le buzz qui entoure cette technologie ne montre pas toujours de création de valeur tangible et appliquée sur le terrain, les cas d’usage se multiplient rapidement et ouvrent la porte à une transformation profonde qui promet d’être durable.
En tant qu’acteur d’envergure internationale, nous bénéficions d’une vision opérationnelle inédite qui nous permet d’observer les projets en cours de développement : actuellement, nous sommes impliqués dans plus de trois cents projets d’IA générative. Les retours terrain nous permettent d’identifier les leviers de changement (essentiellement : le désilotage des architectures et la modernisation des données) mais surtout de dessiner des feuilles de route pour les années à venir.
C’est ainsi que nous avons délimité trois grandes vagues successives de transformation :
- Une première vague d’automatisation du back office (génération de code notamment)
- Une seconde vague d’optimisation des métiers (transformation des opérations et des services)
- Et enfin, une troisième vague plus prospective de transformation du travail et des organisations.
La première vague : automatisation et optimisation des fonctions IT
Cette première vague a débuté dès 2023 avec, aujourd’hui, environ 13 % des entreprises qui se lancent sur ces cas d’usage. Quasiment l’intégralité des entreprises ayant lancé des projets d’IA générative commencent par cette phase-là.
Il s’agit pour elles d’expérimenter autour de l’IA générative sans prendre trop de risques et de préparer les architectures à adopter graduellement ces solutions. Cette découverte progressive leur permet de se lancer à moindre frais, en faisant face à l’incertitude, notamment réglementaire, qui entoure actuellement la gen AI.
Parmi nos clients, nous avons ainsi observé les cas d’usage et résultats suivants :
- Une accélération du développement logiciel chez un grand acteur du e-commerce international. Cette entreprise, active sur plus de cent marchés mondiaux, s’est penchée sur son investissement en matière de développement, de tests unitaires et de tests d’automatisation. Elle s’est rendu compte que 70 % de la charge quotidienne était attribuable à du codage, ce qui impactait considérablement le time-to-market des applications et services. Partant de ce constat, nous l’avons accompagnée dans le déploiement transversal de l’assistant GitHub Copilot, disponible sous forme d’abonnement : mis dans les mains de toutes les équipes impliquées sur des fonctions de codage, cet outil a ainsi endossé un rôle de « programmeur AI bis » en fournissant, par exemple, des suggestions de code. Le résultat observé est édifiant : une productivité multipliée par deux, une réduction de 50 % des efforts de réécriture et une optimisation de 15 % des ressources grâce au script automatique.
- Un passage à l’échelle réussi pour la plateforme de données d’un client issu du Fortune 100. Ce client disposait d’une plateforme de données qui échouait à industrialiser le data management car celui-ci était fragmenté par les règles propres à chaque métier et les dispositions du RGPD (lesquelles créaient des exceptions et particularismes sur plusieurs groupes de données). Le résultat ? Une situation bloquée où le client ne pouvait mettre en place de solutions AI/ML capable de réduire les efforts manuels et développer l’automatisation. L’équilibre économique entre les investissements à consentir sur la plateforme et la rétribution commerciale n’était pas assuré. Nous avons donc choisi de privilégier une solution 100 % automatisée sur Microsoft Azure Cloud afin de limiter les efforts d’infrastructure et d’accélérer le déploiement : celle-ci générait des insights à l’échelle sur la base de l’IA. Le résultat s’est fait sentir dans l’année : la marque a pu lancer des solutions d’AI/ML et d’automatisation et sa transformation numérique globale s’en est trouvée accélérée. D’un point de vue purement quantitatif, le taux de croissance d’une année sur l’autre s’est établi à 50 %, celui de la hausse de productivité à 20 % et les économies envisagées sur les cinq prochaines années ont été évaluées à 7,5 millions de dollars.
- Une utilisation de l’IA générative sur des tests de régression pour un leader mondial de l’assurance. Notre client, assureur canadien, croulait sous le volume de scripts manuels conçus pour les tests : il nous a donc sollicités pour optimiser le processus, augmenter l’efficience et réduire le débit d’erreurs, afin de diminuer le temps total de tests. Il souhaitait également que ses équipes de transformation digitale se positionnent sur des sujets à haute valeur ajoutée. Dans ce contexte, l’apport de l’IA générative au sein du cycle de test logiciel a considérablement accru l’efficacité et l’efficience des processus en permettant d’automatiser, d’améliorer le taux de couverture et d’augmenter la qualité globale des tests. Au total, ce client assureur s’attend à une réduction de 40 % des efforts consentis, une optimisation de 35 % des tests de régression et une économie de 32 % en matière d’assurance qualité à travers des gains d’efficience.
Comme on peut le voir à travers ces exemples, la plupart de nos clients commencent à utiliser la gen AI à un niveau basique, en focalisant leurs efforts sur l’infrastructure et les applications. Il s’agit souvent pour eux de fluidifier le support front office, d’automatiser le codage (avec des gains de productivité estimés à 30 %) ou de convertir les lignes de codes écrites en langage Cobol.