ChatGPT, c’est quoi ?
ChatGPT est un chatbot mis en place courant décembre 2022 par Open AI pour bêta tester auprès du grand public son IA conversationnelle, GPT (pour Generative Pretrained Transformer). Elle est pré-entraînée avec des milliards de sources, dont des bibliothèques de romans en libre accès, Wikipédia, des bibliothèques de code source et des sites web tels que ceux de Microsoft, AWS, etc.
À la différence d’un moteur de recherche comme Google qui effectue une recherche avec les mots-clés fournis par l’utilisateur, GPT va piocher dans ses données d’entraînement pour créer une réponse originale. C’est grâce à ce fonctionnement que des résultats surprenants de création d’articles, de poèmes ou d’analyse de code source sont obtenus.
Pour générer ses réponses, GPT fait appel à des modèles de traitement : Ada, Babbage, Curie et Davinci. Respectivement, chaque modèle est plus évolué que le précédent, Davinci étant de loin celui qui offre les meilleures réponses. C’est ce dernier qui est implémenté dans ChatGPT. En tant qu’utilisateur ou intégrateur, vous avez la liberté de choisir celui que vous souhaitez utiliser.
Comment les modèles GPT fonctionnent-ils ?
Le fonctionnement général peut être vulgarisé comme ceci : vous fournissez à GPT une liste de contextes (le contenu de document, des paragraphes de texte, etc.). Ensuite, GPT génère pour chaque contexte un certain nombre de formulations de questions. Enfin, après la phase de fine tuning, vous pouvez interroger le moteur via une interface de type chatbot ou via un call API. En faisant un rapprochement entre les termes de votre question et ceux des contextes que vous lui avez fournis, GPT vous renvoie une réponse fabriquée de toutes pièces.
Pour quels cas d’usages GPT est-il approprié ?
Parce que GPT est dénué de tout sens critique, la réponse fournie peut varier de très bon et approprié à complètement folklorique voire imaginaire. Mais il ne doutera à aucun moment. Et c’est bien cela le principal problème : l’IA comprend très bien ce que vous lui demandez, mais va INVENTER une réponse, si les données d’entraînement qu’on lui fournit ne sont pas assez importantes, les réponses peuvent vite devenir insolites et être hors contexte. Pendant nos tests, nous avons pu constater qu’adresser un cas d’usage de support Microsoft 365 avec le modèle Davinci fonctionne très bien : GPT puise dans sa source, initialisée à partir du site de support utilisateur Microsoft (mais daté d’avril 2021), et répond très bien, globalement.
Mais nous imaginons assez peu un cas d’usage pour un bot RH ou pour une direction juridique, pour qui les termes ont une importance capitale.
En revanche, pour des cas d’usage de support client (B2C) avoir un bot qui répond toujours, et qui répond de façon assez « humaine » lorsqu’il ne sait pas, revêt une importance très forte en termes d’adhésion des utilisateurs.
Très synthétiquement, on pourrait catégoriser deux finalités : les besoins de réponse très précise et constante, et les besoins de réponse générale.
Quelle limitation par rapport à de la recherche Questions/Réponses classiques ?
Hubi.ai est positionné dans la première catégorie. Hubi doit pouvoir fournir une réponse précise à une question posée dans un contexte spécifique, et également pouvoir déclencher des scénarios d’automatisation sur des déclencheurs bien identifiés. Sans place à l’improvisation. Nous sommes donc positionnés dans un contexte de recherche de connaissance et pas de génération de contenu. GPT est ainsi limité sur ce point par sa capacité conversationnelle (par ailleurs son point fort). Et par son tarif, faut-il le reconnaître, prohibitif à grande échelle.
Quel changement pour la mise en place d’un projet chatbot ?
Il faudra donc dans la réflexion globale de votre projet chatbot déterminer si le rendu de GPT correspond à vos cibles (métiers) et vos finalités (verticaux). De là, déterminer si vous souhaitez utiliser les modèles pré-entraînés de GPT (et nécessairement obsolètes ou incomplets) ou si vous souhaitez l’entraîner avec vos propres informations. Et c’est sur ce point que les grosses différences vont commencer à apparaître, notamment des différences de coût (en licence et en hommes). Un projet GPT avec vos propres modèles, c’est un processus continu de création, corrections et mises à jour de vos contenus ; publication ; fine tuning… et à temps plein. À chaque modification de vos données, c’est un coût supplémentaire.
Quels changements dans la gouvernance d’un projet chatbot ?
ChatGPT n’a pas d’esprit critique et se base sur des contextes d’information datés pour générer une réponse. De plus, selon le taux de hasard (temperature) que vous aurez paramétré, il est possible que les dix premières réponses retournées soient correctes et que la onzième soit complètement farfelue.
Si dans le processus de gouvernance de vos bots GPT, l’impact sur la mise en place technique est nul, la MCO (Maintien en Condition Opérationnelle) nécessite une attention continue, là où les bots classiques voient ce coût diminuer à mesure que les incompréhensions sont corrigées.
Bien qu’il possède de solides arguments, GPT n’est donc pas encore prêt à remplacer les solutions de chatbot actuelles. Et bien avant la release de ChatGPT, chez Hubi.ai, nous y avions déjà vu une complémentarité évidente avec notre solution. C’est pour cela qu’aujourd’hui, nous pouvons nous intégrer de plusieurs façons avec cette IA conversationnelle pour démultiplier nos possibilités.
Et ces intégrations feront l’objet d’un autre article, à paraître très vite !