Glossaire de l'IA générative pour les entreprises
L'IA générative est l'innovation dont on parle le plus. Suivez un cours accéléré sur les termes les plus importants pour comprendre son impact sur le monde des affaires.
Temps de lecture: 10 minutes
Glossaire de l'IA générative pour les entreprises
L'IA générative fait parler d'elle dans le monde des affaires et de la technologie. Ainsi, si vous souhaitez prendre une longueur d'avance sur la concurrence ou rester informé, il est essentiel de comprendre la terminologie associée au domaine de l'IA générative.
Ce glossaire présente les termes clés de l'IA et les divise en trois catégories pour faciliter leur compréhension. Dans chaque catégorie, nous présentons les termes dans un ordre intuitif en nous appuyant sur les concepts déjà évoqués, plutôt que de les classer par ordre alphabétique.
Regardons cela en détail.
Les bases de l'IA et du machine learning
Intelligence artificielle (IA)
L'intelligence artificielle est un concept global qui désigne les machines exécutant des tâches pour lesquelles l'intelligence humaine est habituellement nécessaire, comme la résolution de problèmes, la perception ou le raisonnement.
Machine learning (ML)
Le machine learning, un sous-domaine de l'IA, est la pratique consistant à utiliser des algorithmes pour analyser les données, en tirer des enseignements et effectuer des prévisions ou prendre des décisions sans programmer explicitement une machine pour effectuer la tâche.
Deep learning
Le deep learning, un sous-domaine du ML, modélise des abstractions de haut niveau dans les données en utilisant plusieurs couches de traitement, chacune affinant l'interprétation des données de la couche précédente.
Par exemple, dans le cadre de la reconnaissance d'images, alors qu'un programme traditionnel se concentre sur des motifs prédéfinis, un algorithme de deep learning sépare l'image selon des caractéristiques (comme les formes, les couleurs et les textures) et apprend à reconnaître les motifs de manière superposée, d'une façon similaire à celle dont notre cerveau reconnaît les objets.
Réseaux de neurones
Les réseaux de neurones reproduisent le fonctionnement du cerveau humain et constituent la pierre angulaire du deep learning. Conçus pour reconnaître des schémas dans les données, ces réseaux sont composés de couches interconnectées de nœuds (ou neurones) qui échangent des données entre elles pour faciliter l'apprentissage et l'interprétation de ces données.
Modèle
Un modèle de ML est une représentation spécifique apprise à partir de données en appliquant un algorithme de ML. Contrairement aux logiciels traditionnels qui suivent des instructions prédéfinies pour produire des résultats, un modèle de ML apprend à partir de données et prend des décisions en fonction des informations qu'il a assimilées.
Par exemple, si vous entraînez un modèle avec des données sur les ventes immobilières, il pourra établir des prévisions sur les prix de l'immobilier dans un lieu spécifique. Cependant, le modèle ne se programme pas avec des règles spécifiques telles que « si la maison se trouve dans ce quartier, ajoutez tel montant au prix ». Au lieu de cela, il apprend l'impact de la localisation (et d'autres caractéristiques) sur les prix des logements en fonction des schémas qu'il a trouvés dans les données d'entraînement.
Entraînement
L'entraînement fait référence à la phase de ML au cours de laquelle le modèle apprend à partir d'un ensemble de données. L'objectif est d'atteindre un niveau de connaissances permettant au modèle d'effectuer des prévisions ou de prendre des décisions précises.
Apprentissage supervisé
L'apprentissage supervisé est un type de ML dans lequel le modèle est entraîné à partir de données étiquetées. L'objectif est de permettre au modèle d'utiliser des exemples de paires entrée-sortie, puis d'apprendre une fonction qui associe une entrée à une sortie.
Prenons l'exemple de la conception d'un système qui détermine si un e-mail est un spam ou non. Dans le cadre d'une approche d'apprentissage supervisé, ce système serait entraîné avec de nombreux e-mails déjà étiquetés comme spam ou non-spam. Ensuite, le modèle apprendrait les caractéristiques des e-mails considérés comme spam, comme certaines phrases ou certains motifs utilisés de manière récurrente. Après un entraînement suffisant, le système pourrait classer correctement les nouveaux e-mails comme spam ou non-spam en se basant sur son apprentissage.
Apprentissage non supervisé
L'apprentissage non supervisé est une technique de ML dans laquelle le modèle apprend à partir d'un ensemble de données sans étiquettes explicites, souvent utilisée pour découvrir des schémas cachés ou des structures intrinsèques dans les données d'entrée.
La segmentation de la clientèle dans le secteur du marketing est un exemple d'apprentissage non supervisé. Supposons qu'une entreprise possède une large base de clients et que l'équipe marketing souhaite concevoir des stratégies marketing ciblées pour des consommateurs spécifiques. Cependant, l'équipe ne dispose pas de groupes ou d'étiquettes préexistants pour ses clients. L'apprentissage non supervisé prend alors toute son importance.
Grâce à des techniques telles que le clustering (partitionnement des données), l'équipe marketing peut utiliser les données relatives au comportement d'achat des clients pour les répartir en groupes distincts. Ces groupes peuvent représenter des clients ayant des comportements, des préférences ou des caractéristiques similaires, même si le modèle ne sait pas à quoi ressembleraient ces groupes au préalable. L'équipe marketing peut ensuite adapter ses campagnes marketing à ces nouveaux segments de clientèle identifiés.
Générateur
Un générateur est un composant qui apprend à générer de nouvelles données semblables à ses données d'entraînement.
Traitement du langage naturel, IA générative et analyse de texte
Traitement du langage naturel (NLP)
Le traitement du langage naturel est une branche de l'IA qui se concentre sur l'interaction entre les ordinateurs et les humains par le biais du langage naturel. Son objectif est de permettre aux machines de comprendre les entrées textuelles ou vocales et d'y répondre de manière semblable à celle d'un humain.
Modèles de langage (LM)
Les modèles de langage sont des types de modèles d'IA capables de comprendre et de générer du langage humain. Entraînés sur de grandes quantités de données textuelles, les LM apprennent la structure statistique du langage humain pour la comprendre.
Grands modèles de langage (LLM)
Les grands modèles de langage sont des versions sophistiquées et étendues des modèles de langage, entraînées sur un volume considérable de données textuelles. Ils permettent une compréhension et une génération plus nuancées du langage humain.
La principale différence entre un LM et un LLM est le volume des données d'entraînement et la taille du modèle. Un LM ordinaire peut être entraîné sur des millions de documents et se composer de centaines de millions de paramètres, qui représentent les aspects du modèle appris à partir des données d'entraînement.
En revanche, les LLM sont entraînés sur des milliards de documents et peuvent avoir des centaines de milliards, voire des milliers de milliards, de paramètres. Par exemple, GPT-3, l'un des plus grands modèles de langage disponibles, dispose de 175 milliards de paramètres. Ce volume considérable permet aux LLM de générer du texte remarquablement similaire à ce qu'un humain peut produire, et de comprendre des contextes plus complexes dans les données textuelles.
Transformateur génératif pré-entraîné (GPT)
Le transformateur génératif pré-entraîné est un type de LLM développé par OpenAI. Ces modèles peuvent générer un texte semblable à celui d'un être humain en prédisant la probabilité d'un mot en fonction des mots précédemment utilisés dans le texte.
Modèles Transformer
Les modèles Transformer sont un type d'architecture de réseau de neurones ayant rencontré un grand succès dans les tâches de traitement du langage naturel. Ces modèles traitent les données d'entrée en parallèle (et non de manière séquentielle), ce qui les rend plus efficaces.
Auto-attention
L'auto-attention est un mécanisme utilisé dans les modèles Transformer qui permet au modèle d'attribuer une importance (ou une attention) à différents mots dans une séquence d'entrée lors de la génération d'une sortie. Ce mécanisme permet au modèle de déterminer quels mots d'une phrase sont essentiels pour comprendre le contexte global.
Prenons par exemple la phrase suivante : « La légende de ce tableau est incomplète. » Le mot « légende » peut avoir plusieurs significations, mais la présence de « tableau » dans la phrase fournit un contexte crucial. Un mécanisme d'auto-attention permet au modèle d'accorder plus d'attention au mot « tableau » lorsqu'il essaie de comprendre la signification de « légende », ce qui explique que « légende » fait ici référence à une inscription explicative, et non à une histoire merveilleuse. Ce mécanisme rend le modèle particulièrement puissant pour les tâches qui impliquent de comprendre le contexte linguistique, telles que la traduction, le résumé et l'analyse des sentiments.
Token
En traitement du langage naturel, un token fait référence à une unité individuelle de données linguistiques, généralement un mot ou un sous-mot dans un document textuel.
Fine-tuning
Le fine-tuning est le processus qui consiste à entraîner un modèle pré-entraîné sur un nouvel ensemble de données afin d'affiner ses performances. Il s'agit d'une pratique courante dans le domaine du deep learning, car elle nécessite moins de ressources informatiques que l'entraînement d'un modèle à partir de zéro.
IA générative
L'IA générative est un sous-domaine de l'IA qui se concentre sur la création de nouveaux contenus, notamment des images, de la musique, de la voix ou du texte. Elle apprend à partir des données existantes et tente de générer un contenu similaire.
Analyse des sentiments
L'analyse des sentiments est une technique de traitement du langage naturel utilisée pour déterminer le sentiment exprimé dans une partie du texte.
Par exemple, un chercheur peut utiliser l'analyse des sentiments pour classer les tweets concernant un événement récent dans la presse, en déterminant si chaque tweet perçoit l'événement de manière positive, négative ou neutre.
Considérations pratiques et éthiques
Biais de l'IA
Les biais de l'IA peuvent survenir lorsque les systèmes reflètent voire amplifient les préjugés existants (biais) dans les données sur lesquelles ils sont entraînés, ce qui peut conduire à des résultats discriminatoires.
Explicabilité/interprétabilité
L'explicabilité/interprétabilité est la capacité à comprendre et interpréter les décisions prises par un système d'IA. Cette capacité est essentielle pour la confiance et la transparence, en particulier dans des secteurs tels que la santé et la finance.
Hallucination
Dans le domaine de l'IA, l'hallucination fait référence à une situation dans laquelle un modèle génère des sorties qui ne sont pas fondées sur ses données d'entrée. Il s'agit d'un problème courant dans l'IA générative, par exemple lorsque les LLM génèrent des sorties plausibles mais incorrectes ou absurdes.
Par exemple, si vous posez à un LLM une question historique comme : « Quelle a été l'issue de la bataille entre Napoléon et les extraterrestres ? », le LLM peut fournir une réponse détaillée et créative, même si cet événement n'a jamais eu lieu. Il s'agit d'une forme d'hallucination, car le LLM a créé un scénario qui n'existe pas dans ses données d'entraînement ou dans la réalité. Il est essentiel de connaître l'existence de ce phénomène dans les systèmes d'IA générative, en particulier lors de la génération d'informations précises et fiables.
Généralisation
La généralisation est la capacité d'un modèle d'IA à appliquer de manière pertinente et précise les connaissances acquises à partir de données d'entraînement à des données invisibles.
Robustesse
La robustesse fait référence à la capacité d'un système d'IA à continuer de fonctionner efficacement dans des conditions variables ou difficiles, notamment en gérant de nouvelles données ou en faisant face à des attaques adverses.
Confidentialité des données
La confidentialité des données dans le domaine de l'IA est la pratique qui consiste à garantir la confidentialité et la protection des données. Cette garantie est essentielle dans ce domaine, car les modèles nécessitent souvent de grandes quantités de données d'entraînement. Les données peuvent inclure des informations confidentielles ou sensibles, telles que des dossiers médicaux, des informations financières ou des propriétés intellectuelles. Des violations de la confidentialité des données peuvent survenir lorsque ces informations ne sont pas traitées correctement. Par conséquent, il est essentiel d'adopter des pratiques rigoureuses en matière de confidentialité lors de la collecte, du stockage et de l'utilisation des données pour l'entraînement de l'IA.
Gouvernance de l'IA
La gouvernance de l'IA garantit que les systèmes d'IA fonctionnent de manière éthique et transparente, dans l'intérêt de toutes les parties prenantes. Cela implique souvent de développer des directives ou des politiques relatives à l'utilisation et à l'impact de l'IA.
IA en tant que service (AIaaS)
L'AIaaS est l'externalisation des capacités ou des services d'IA par le biais de plateformes basées sur le cloud, permettant aux entreprises d'utiliser l'IA sans investissement initial important.
Machine learning automatisé (AutoML)
L'AutoML fait référence aux outils et techniques utilisés pour automatiser l'application du machine learning. Il peut s'agir du prétraitement des données, de la sélection des modèles et de l'ajustement des hyperparamètres.
Augmentation de données
L'augmentation de données est une technique permettant d'augmenter la quantité de données d'entraînement en ajoutant des copies légèrement modifiées des données existantes, améliorant ainsi les performances du modèle.
Edge AI (IA en périphérie)
L'Edge AI désigne l'exécution d'algorithmes d'IA sur des terminaux tels que des smartphones ou des objets connectés, permettant le traitement des données à la source et garantissant le traitement et la confidentialité en temps réel.
La capacité de conduite autonome des voitures Tesla est un excellent exemple d'Edge AI. Ces véhicules utilisent des capacités d'IA avancées pour interpréter les données des capteurs et prendre des décisions de conduite en temps réel. Cette fonctionnalité nécessite une grande puissance de traitement des données et une prise de décision rapide directement dans le véhicule, ce qui serait impossible si le véhicule devait constamment envoyer des données au cloud pour traitement.
Reinforcement learning (Apprentissage par renforcement)
Le reinforcement learning est une technique de ML dans laquelle un agent apprend à prendre des décisions en réalisant des actions dans un environnement afin de maximiser un certain type de récompense ou de retour positif.
Chatbot
Un chatbot est une application logicielle qui simule une conversation humaine, orale ou textuelle, à l'aide de règles prédéfinies ou de technologies d'IA telles que le traitement du langage naturel.
Dynamisez votre entreprise avec CustomerAI de Twilio
L'utilisation de l'IA générative pour stimuler l'engagement client ou exécuter des opérations peut changer la donne pour votre entreprise. Si ce glossaire constitue un excellent point de départ pour vous familiariser avec les concepts clés de l'IA, votre entreprise est peut-être prête à passer à l'étape suivante.
Vous pouvez exploiter la puissance de l'IA dans votre entreprise grâce à CustomerAI de Twilio. Ces outils alimentés par l'IA vous aideront à personnaliser l'expérience client, à transformer la qualité de votre service client et à obtenir des informations clés sur vos clients et leur comportement. Contactez nos experts dès aujourd'hui pour en savoir plus et vous lancer.
Découvrez CustomerAI à SIGNAL 2023
Revisionnez gratuitement les sujets passionnants de la conférence annuelle des clients et des développeurs de Twilio. Découvrez comment les marques peuvent exploiter le potentiel de l'IA avec des données clients en temps réel pour fournir un engagement personnalisé.