L’enjeu pour les concepteurs rédacteurs (et ceux qui les accompagnent) sera donc plutôt d’apprendre à utiliser l’outil pour en tirer le maximum de bénéfices, que de le mettre de côté. En effet, s’il est probable que l’IA générative permettra de fluidifier le travail rédactionnel de base, l’angle analytique apporté à un contenu et la subtilité de certaines formulations seront, eux, toujours du ressort d’un cerveau humain.
En ce sens, de nombreux experts déclarent déjà que l’IA générative n’aura pas pour conséquence de remplacer le travail de conception, mais plutôt de l’augmenter – un peu comme d’autres outils sont venus en leur temps augmenter la productivité des services clients (+14 %) ou, plus récemment, des assistants à la création sont venus enrichir la production artistique.
Autrement dit par Duncan Roberts, « l’IA générative est au rédacteur ce que la calculatrice est au mathématicien : apprendre à s’en servir ne fait que renforcer ses capacités ».
Quelle entreprise à l’horizon GenAI ?
Dès lors, comment accompagner cette transformation d’un point de vue organisationnel ? Outre la formation à ces outils pour les professionnels en poste, l’entreprise peut également prévoir la création de nouveaux métiers et compétences :
- Par exemple les prompt engineers, qui s’assurent que les invitations textuelles générées par l’IA sont pertinentes et précises.
- Ou encore les modérateurs de contenus, qui s’assurent que les textes générés par l’IA respectent bien les règles éthiques qui régissent les contenus plus traditionnels.
Il n’en reste pas moins que l’entreprise (et la société dans son ensemble) devra s’interroger à terme sur l’impact de ces outils de GenAI sur la créativité dans les équipes. Si ChatGPT, Bard ou OpenAI Codex sont capables de libérer du temps de cerveau pour l’innovation et l’analyse, ils peuvent aussi avoir l’effet inverse et niveler par le bas la création, en générant des contenus sans relief ni personnalité. Il faudra alors pour l’entreprise mettre en place les balises et process nécessaires à l’identification de ces décrochages et accompagner plus résolument les jeunes générations dans l’appropriation d’une communication plus exigeante.
La GenAI est encore trop immature face à l’urgence IA
On le voit : l’entreprise en format GenAI semble pour l’instant davantage conceptuelle qu’opérationnelle. Et les changements qu’elle implique (business, techniques, RH) auront une courbe d’apprentissage nécessairement longue et heurtée au regard du manque d’expérience associée à ces technologies.
Pour ces raisons, concentrer les efforts en matière d’IA sur ces outils de GenAI serait à date une erreur, synonyme de prise de retard conséquente. Car l’impatience autour de l’IA grandit dans les entreprises et le besoin d’obtenir rapidement des résultats à l’échelle ne fait que s’amplifier : d’après nos remontées du terrain, seuls 10 % environ des projets d’IA corporate (c’est-à-dire d’IA appliquée à l’échelle de toute l’entreprise) seraient actuellement déployés. Et si 68 % des entreprises déclarent avoir implémenté des projets d’IA/ML (cf notre étude internationale cross-industries), seules 39 % confirment être passées à l’échelle et en avoir retiré une valeur business.
Capitaliser sur l’existant IA/ML
Ces chiffres doivent donc inciter les entreprises à s’appuyer sur des solutions fiables, réalistes et lisibles pour l’avenir (c’est-à-dire avec des budgets et des calendriers planifiables). Mais également sur des solutions réutilisables leur permettant d’engager des projets qui capitalisent sur l’existant.
Or, bonne nouvelle, les entreprises disposent d’ores et déjà dans leurs entrepôts de modèles éprouvés d’IA/ML dont l’explicabilité a été documentée et qui peuvent donc être réutilisés, en partie ou en globalité, pour servir d'autres objectifs business que ceux identifiés initialement.
Cette approche d’extension fondée sur des méthodologies d’ingénierie (data et logicielle) peut sembler moins sexy que la GenAI mais sa rigueur et sa prévisibilité assurent davantage des résultats tangibles ou atteignables parce que l’on connaît d’avance les périmètres d’application de ces modèles (ex: s’ils sont davantage pertinents sur un texte ou sur des images), il sera possible de les entraîner sur de nouveaux jeux de données et de construire ainsi de nouveaux use cases.
Un exemple que nous pouvons donner est celui d’un client norvégien spécialiste de l’aquaculture qui souhaitait comprendre le développement des poissons et avait choisi de s’appuyer sur l’IA (plus spécifiquement sur la vision par ordinateur, ou computer vision) pour suivre la croissance des animaux et détecter les maladies et malformations. Pour l’accompagner dans son besoin d’identifier le poids et la longueur de chaque saumon, nous avons sélectionné un modèle open source de « réseau neuronal convolutif » qui catégorise les images.
Grâce à cette méthodologie de réutilisation et grâce aux outils de conception IA comme le Learning Evolutionary Algorithm Framework (LEAF), - littéralement « méthodologie d’apprentissage évolutionnaire des algorithmes » - ce client s’est trouvé en mesure d’appliquer le même modèle algorithmique à d’autres types de poissons et d’observer ainsi la croissance de plusieurs espèces cultivées. Il lui a suffi d’entraîner ce modèle « clé en main » avec de nouvelles données.
7 étapes-clés pour industrialiser les modèles d’IA/ML
On peut donc envisager que les entreprises développent des catalogues de modèles IA/ML prêts à l’emploi (c’est-à-dire prêts à être entraînés), capables de répondre aux besoins spécifiques de chaque entité ou équipe métier. Il faudra pour cela qu’elles suivent quelques bonnes pratiques d’ingénierie de données et de modélisation.
Voici un protocole en sept étapes pour les accompagner sur ce chemin :
1) Identifier le modèle adéquat :
Les entreprises seront amenées à choisir parmi un grand nombre de modèles IA/ML open source, qu’il s’agisse de BERT, de XGBoost, de Neural Networks ou de modèles de type bayésien ou de type random forest (forêt d’arbres décisionnels), voire des modèles de régression logistique ou linéaire. Ce choix devra s’orienter en fonction de la nature du problème à résoudre. Par exemple, elles n’utiliseront pas le même modèle selon qu’il s’agit d’identifier des images ou de comprendre le sens de certains mots dans un texte.
2) Clarifier le problème :
De façon corollaire, il est donc important de bien définir la question à laquelle on veut répondre et de la définir au regard des réponses attendues de la part de l’IA. Il s’agit notamment d’identifier les résultats à obtenir et les indicateurs par lesquels la solution sera perçue comme satisfaisante. Mais aussi de cibler toutes les informations qui peuvent permettre d’affiner le modèle en le rendant plus fidèle à son contexte. Et enfin d’identifier toutes les actions impactantes, c’est-à-dire susceptibles de biaiser, influencer ou faire évoluer le modèle.
Si l’on transpose à la situation de pandémie de la COVID-19, le résultat à obtenir était la minimisation du nombre de victimes et du nombre de personnes contaminées ; les actions impactantes étaient (entre autres) la fermeture des espaces publics, l’établissement des gestes barrières et la mise en place de confinements et de tests obligatoires ; et les informations de contexte étaient celles associées à chaque région de déploiement – informations comme la météo, la tenue d’événements festifs, etc.
Tous ces éléments permettent surtout de cibler les types de données sur lesquels entraîner le modèle, un peu comme, dans le software engineering, on définit en amont tous les déterminants de l’application – l’objectif est-il de réduire les coûts, et si oui lesquels ? Ou bien est-il d’augmenter les ventes ? Auquel cas pour quel(s) produit(s) et quelle(s) cible(s) ? Etc.
3) Se concentrer sur les données :
Le nœud du protocole se situe donc dans l’identification détaillée des données nécessaires au problème posé. Pour chaque jeu de données, les ingénieurs devront connaître la source, le rôle joué dans la réponse au problème, comment assembler et modifier ces données pour qu’elles soient utilisables par le modèle et si des données dérivées et/ou des variables supplémentaires s’avèrent indispensables. Les données devront être nettoyées, consolidées et normalisées et les entreprises auront probablement besoin de définir une ontologie pour le sujet ou domaine adressé par le modèle.
Ce travail de définition du problème et d’ingénierie des données constitue environ 80 % du travail global sur l’algorithme, et ses ressources associées (coûts et temps passé) sont des éléments déjà bien connus qu’il est possible d’anticiper.
4) Entraîner le modèle :
Une fois les données définies, il ne reste plus qu’à les appliquer au modèle pour entraîner celui-ci. Une fois encore, cette étape est prévisible (nous l’estimons à environ 20 % du temps total de développement du modèle) mais elle dépend en grande partie du volume de données à entraîner et de la puissance machine à disposition.
5) Développer un Minimum Viable Product (MVP) et préparer un test de validation utilisateur (User Acceptance Testing, UAT) :
Ce n’est pas parce qu’il s’agit d’IA/ML que l’on peut s’affranchir de tests et d’itérations. Durant la phase de MVP, il est important d’intégrer les commentaires des utilisateurs directement au sein des données d’entraînement.
6) Passer en production :
Une fois testés, les modèles IA/ML obtenus peuvent être intégrés au sein des systèmes métiers qui utiliseront ses recommandations et analyses.
7) Réentraîner et réutiliser :
Le modèle peut ensuite être enregistré dans une bibliothèque afin d’être utilisé clé en main quand un problème similaire se présente ; il suffit pour cela de l’entraîner avec de nouveaux jeux de données. En changeant ces données d’entrée, il est ainsi possible d’utiliser un modèle unique pour des besoins aussi différents qu’optimiser des structures de prix, concevoir de nouveaux produits, améliorer le réseau de distribution logistique et prédire des défaillances industrielles.
Une approche structurée et performante appuyée sur le MLOps
Appliqué dans le respect des bonnes pratiques de software development et de data engineering, ce protocole promet aux entreprises des résultats plus rapides que des démarches plus exploratoires de type ChatGPT.
Notre conviction, c’est qu’il est tout à fait possible de créer ce catalogue de modèles IA/ML en l’organisant par catégories, selon le type de prédiction recherchée (ex : classification par reconnaissance d’images, classification par reconnaissance textuelle, prédictions de séries chronologiques, prédictions de données structurées) ou selon leur complexité relative.
Tous les facteurs évoqués dans le protocole, y compris les éléments d’industrialisation comme la preuve de valeur (proof of value), le MVP et le passage en production, sont des étapes connues dont l’investissement en temps et en budget est planifiable. Le facteur clé de succès que nous recommandons est alors la mise en place d’une architecture MLOps solide permettant l’intégration continue et le développement continu (CI/CD) ainsi qu’une fluidification dans la production de modèles.
Contrairement aux apparences, le déploiement de solutions IA/ML s’avère donc très similaire aux autres disciplines du software engineering. C’est via une approche structurée, un esprit catalogue et une architecture MLOps doublée d’un centre d’excellence dédié que les entreprises peuvent espérer tirer profit de ces modèles réutilisables.
En clair : suivre cette approche structurée garantira aux entreprises la scalabilité et l’industrialisation tant attendues.