Depuis des mois, vous entendez parler de ChatGPT, des prouesses qu’il réalise tout autant que des inquiétudes qu’il soulève. Lors de l’événement Cultive ta Data, Samuel Rochette et Giuseppe Guarino, Senior Data Scientists chez Flint, ont eu l’occasion de présenter la conférence “Jusqu'où peut aller l'IA ?
Depuis des mois, vous entendez parler de ChatGPT, des prouesses qu’il rĂ©alise tout autant que des inquiĂ©tudes qu’il soulève.Â
‍
Lors de l’évĂ©nement Cultive ta Data, Samuel Rochette et Giuseppe Guarino, Senior Data Scientists chez Flint, ont eu l’occasion de prĂ©senter la confĂ©rence “Jusqu'oĂą peut aller l'IA ? État des lieux et perspectives”afin de remettre du contexte, de prĂ©senter Ă la fois les mĂ©canismes derrière les "grands modèles de langage" (LLM) de manière simple et didactique, pour ensuite les illustrer avec des applications concrètes pour vos entreprises.Â
‍
Le replay de la conférence est disponible ci-après : (le son s’améliore après la troisième minute)
‍
‍
Durant cette confĂ©rence, nous parlerons d’IA gĂ©nĂ©rative. Cette branche de l’intelligence artificielle se concentre sur la crĂ©ation de modèles et d’algorithmes capables de gĂ©nĂ©rer des donnĂ©es, des images, des textes ou des sons de manière autonome.Â
‍
‍
LLM signifie Large Language model. Ce sont des réseaux neuronaux utilisant d'énormes volumes de données pour comprendre le langage humain (appelé aussi langage naturel).
‍
Ainsi pour comprendre ce qu’est ChatGPT, il est important de comprendre le fonctionnement qui se cache derrière.Â
On va donc parler de 2 modèles :
‍
Le modèle text to image est un modèle d’apprentissage supervisĂ© qui prend en entrĂ©e, une description textuelle et produit une image correspondante Ă cette description.Â
‍
Focus sur l'apprentissage supervisé
‍
L'apprentissage supervisé est une technique d'apprentissage automatique (Machine Learning) utilisée en Data Science. Il s'agit d'un type d'algorithmes où le modèle est entraîné sur un ensemble de données étiquetées (par l’humain). L'objectif de l'apprentissage supervisé est de permettre au modèle d'apprendre à faire des prédictions précises sur de nouvelles données non étiquetées.
Un exemple très connu est lorsque vous dites à votre logiciel d’email qu’un email est un spam, vous “l’étiquetez” spam pour l’algorithme de reconnaissance de type d’email. Ainsi, il devient meilleur.
‍
Ici, c’est de la classification de l’image mais cela pourrait ĂŞtre tout simplement le mĂŞme fonctionnement pour tous les modèles dit paramĂ©triques fonctionnels.Â
‍
Avec cette mĂŞme logique (que l’on appelle encoder / dĂ©coder), lorsque l’on travaille un set de data, avec un modèle, nous pourrons rĂ©cupĂ©rer une image qui, de prime abord, ne ressemblera pas forcĂ©ment Ă ce que l’on souhaite.Â
Il faudra entraĂ®ner le modèle afin de se rapprocher de ce que l’on attend (ici dans l’exemple de Samuel, un saxophone).Â
‍
‍
Un modèle GPT est un réseau neuronal artificiel utilisé pour le traitement du langage naturel qui utilise des concepts d'apprentissage profond pour générer des phrases de sortie précises.
Ce modèle est par exemple utilisĂ© lorsque l’on souhaite prĂ©dire la fin d’une phrase. Â
‍
Pour ce faire, on utilise de l'apprentissage auto supervisĂ©, c’est-Ă -dire, un modèle qui apprend Ă partir de donnĂ©es partiellement Ă©tiquetĂ©es ou auto-Ă©tiquetĂ©es.Â
‍
Les avantages :Â
Les limites :Â
‍
Pour passer d’un modèle type GPT qui va générer du texte à un agent conversationnel de type ChatGPT, il suffit de créer un contexte au modèle, que l’on appelle un pré-prompt.
‍
Mais attention, Ă l’importance du contexte donnĂ©, votre texte et sa formulation auront un impact sur la rĂ©ponse que cela va gĂ©nĂ©rer.Â
‍
Parmi les usages les plus classiques, nous avons :Â
Et depuis quelques mois, nous voyons apparaĂ®tre de nouveaux usages :Â
Les cas d’usage principaux de l’IA sont l’optimisation des processus robotiques et les interfaces de conversation (chatbots). En effet, il est important de rappeler que la plupart des cas d’usage, ne nécessite pas l'usage des LLM ou des modèles SOTA. Les systèmes de Machine Learning classiques livrent une très bonne performance.
‍
Lors de cette prĂ©sentation, Giuseppe souhaite partager l’état de l’art en 09/2022.Â
Nombreuses des entreprises prĂ©sentĂ©es ici, comme Ă©tant Ă l’état de l’art, ont Ă©tĂ© crĂ©Ă©es ces derniers mois. Il est donc normal pour toutes entreprises de se sentir perdus.Â
‍
Â
‍
Les modèles sont bons pour l’interpolation entre diffĂ©rents points des donnĂ©es d’apprentissage. Cependant, il est compliquĂ© pour eux d’extrapoler.Â
Ils vont donc générer des informations cohérentes mais non vraies. En effet, il est très difficile pour des modèles d’apprentissage de raisonner sur des sujets inconnus partant d’informations qu’ils ont à disposition.
‍
Â
Évidemment, l’une des grandes questions autour de l’IA est l’éthique. Un des exemple donnĂ© est une limitation Ă©mise sur Mid Journey, contre toute reproduction du prĂ©sident chinois.Â
Éthique ou non, la question reste ouverte.Â
‍
Comme tout système informatique, ChatGPT a lui aussi ses failles et peut être contourné.
ChatGPT est programmĂ© pour ne pas gĂ©nĂ©rer de rĂ©ponses blessantes, ne pas prodiguer de conseils dangereux ou produire de contenu sexuel, violent ou polĂ©mique.Â
Cependant, il existe de plus en plus de règles connues pour contourner cette limitation, parfois pour manipuler ou désinformer.
‍
Il en est de mĂŞme pour ChatGPT Injection. Alors que nous ne lisons que le contenu texte et image, il est possible qu'une personne malveillante puisse intĂ©grer des mĂ©tadonnĂ©es, qui seront lu par l’IA, mettant le lecteur en erreur.Â
‍
Giuseppe alerte et préconise de garder en tête qu’il peut toujours y avoir une personne mal intentionnée qui détourne l’IA. Il ne faut donc pas lui donner une confiance aveugle.
‍
‍
Auparavant, nous Ă©tions Ă la recherche du modèle le plus grand, donc le plus puissant.Â
Aujourd'hui, grâce Ă l’open source, les dĂ©veloppeurs ont rĂ©ussi Ă crĂ©er un modèle plus petit mais encore plus puissant. MĂŞme si ChatGPT est le plus connu, aujourd'hui les Data Scientists ont plein d’autres solutions Ă portĂ©e de main (telles que Llama by Meta).Â
‍
L’open source s’adapte très vite, voire plus vite, puisqu’il s’appuie sur une communautĂ© mondiale.Â
‍
Pour conclure, voici les points clĂ©s Ă retenir :Â
‍
‍
Si vous souhaitez comprendre comment intégrer l’IA dans votre entreprise, nous vous conseillons de lire l’article “Comment intégrer l’Intelligence Artificielle dans sa stratégie d’entreprise ?” ou visionner le replay de cette table ronde animée par Pierre Vannier, CEO de Flint.
‍