search
close-icon
Data Centers
PlatformDIGITAL®
Partenaires
Expertise et ressources
À propos de nous
Language
Connexion
banner
Article

Glossaire synthétique en matière d'intelligence artificielle

Dictionnaire des termes de l'IA avec quelques concepts fondamentaux pour ne pas se perdre dans le déferlement d'une technologie révolutionnaire.

L'intelligence artificielle fait déjà partie intégrante de bon nombre de nos activités. Bien que nous l'utilisions, nous ne savons souvent pas vraiment comment elle fonctionne. Vous trouverez ci-dessous quelques concepts qui peuvent vous aider à comprendre son fonctionnement.

Apprentissage par transfert

L'apprentissage par transfert est une technique où un modèle préentraîné sur une tâche spécifique est réutilisé pour une autre tâche similaire. Cela permet d’améliorer les performances du modèle sur la nouvelle tâche en utilisant les connaissances acquises précédemment

Réglage fin

Le réglage fin (ou fine-tuning en anglais) est une technique consistant à ajuster les paramètres d’un modèle pré-entraîné avec de nouvelles données spécifiques à une tâche particulière, sur un ensemble de données plus petit. Cela permet d’adapter un modèle généraliste à des besoins spécifiques sans avoir à entraîner un nouveau modèle à partir de zéro. Par exemple, un modèle de traitement du langage naturel (NLP) pré-entraîné sur une grande quantité de textes peut être affiné pour mieux comprendre et répondre à des questions dans un domaine spécifique. Cette technique est couramment utilisée pour améliorer les performances des modèles tout en réduisant le coût et le temps d’entraînement.

Hallucination

L'hallucination fait référence à une situation dans laquelle un système d'IA, en particulier dans les cas où il est responsable du traitement du langage naturel, commence à générer des résultats qui peuvent s'avérer non pertinents, dénués de sens ou incorrects en fonction des informations fournies. Cela se produit fréquemment lorsque le système d'IA n'est pas sûr du contexte, s'appuie trop sur ses données d'entraînement ou n'a pas une compréhension adéquate du sujet présenté. En d’autres termes, l’IA “imagine” des réponses qui ne sont pas basées sur ses données d’entraînement réelles.

Ancrage

Dans le domaine de l’IA générative, l’ancrage fait référence à la capacité de relier les résultats du modèle à des sources d’information vérifiables. En permettant aux modèles d’accéder à des bases de données spécifiques, l’ancrage associe leurs résultats à ces données, réduisant ainsi le risque de générer du contenu inventé. Cela est particulièrement crucial lorsque la précision et la fiabilité sont essentielles. L'ancrage permet de réduire les hallucinations, une meilleure association des réponses du modèle, mais aussi l'amélioration de la fiabilité du contenu.

Empilage

L'empilement est une technique d'apprentissage d'ensemble, qui combine plusieurs algorithmes pour améliorer les performances globales. En combinant les atouts de plusieurs modèles d'IA, l'empilement compense les faiblesses de chaque modèle et permet d'obtenir des résultats plus précis et plus robustes dans diverses applications, telles que la reconnaissance d'images et le traitement du langage naturel.

Apprentissage automatique

Sous-domaine de l'IA qui englobe le développement d'algorithmes et de modèles statistiques permettant aux machines d'améliorer leurs performances grâce à l'expérience acquise. Par exemple, un algorithme d'apprentissage automatique pourrait prédire la probabilité de perte d'un client sur la base de son comportement antérieur.

Apprentissage collectif

L'apprentissage collectif est une approche de formation à l'IA qui exploite les diverses compétences et connaissances de plusieurs modèles afin d'obtenir une intelligence plus puissante et plus robuste.
Il consiste donc à fédérer les données d'apprentissage de diverses entreprises pour entraîner des modèles de machine learning solides. Cette approche permet de créer des IA plus performantes qu'un système d'apprentissage classique. 

Apprentissage zéro tir

L’apprentissage zéro tir (ou zero-shot learning en anglais) est une technique de machine learning où un modèle est capable de reconnaître et de catégoriser des objets ou des concepts qu’il n’a jamais vus auparavant : il peut reconnaître et classer de nouveaux concepts sans aucun exemple étiqueté.

Apprentissage non supervisé

Type d'apprentissage automatique dans lequel un modèle est formé sur des données non étiquetées pour trouver des modèles ou des caractéristiques dans les données c'est-à-dire des données sans labels ou annotations préalables. Exemple : un algorithme d'apprentissage non supervisé qui peut regrouper des images similaires de chiffres manuscrits en fonction de leurs caractéristiques visuelles. Contrairement à l'apprentissage supervisé, qui utilise des données étiquetées pour entraîner un modèle à prédire des résultats spécifiques, l'apprentissage non supervisé se concentre sur l'identification de motifs et de structures sans intervention humaine. Les techniques courantes incluent le clustering (regroupement de données similaires) et la réduction de dimensionnalit2 (simplification des données tout en conservant les informations importantes).

Apprentissage par renforcement

Type d'apprentissage automatique dans lequel un modèle apprend à prendre des décisions en interagissant avec son environnement et en recevant des commentaires sous forme de récompenses ou de pénalités. GPT utilise l'apprentissage augmenté à partir des commentaires humains. Lors du réglage de GPT-3, les annotateurs humains ont fourni des exemples de comportement souhaité du modèle et des résultats de modèle classifiés.

Le deep learning (Apprentissage profond)

Sous-domaine de l'apprentissage automatique qui utilise des réseaux de neurones artificiels à plusieurs couches pour modéliser et interpréter des données complexes. Un exemple serait, dans ce cas, un modèle d'apprentissage profond capable de reconnaître des objets dans une image, ou même jouer à des jeux vidéo en analysant des exemples et en ajustant ses paramètres pour améliorer ses performances à travers plusieurs couches de réseaux neuronaux.

Automation

L'automatisation fait référence à l'utilisation de la technologie pour effectuer différentes tâches avec une intervention humaine minimale.

Contrôlabilité

La contrôlabilité fait référence à la compréhension, à la régulation et à la gestion du processus de prise de décision d'un système d'IA, en garantissant sa précision, sa sécurité et son comportement éthique, et en minimisant le potentiel de conséquences involontaires. Cet aspect est essentiel pour garantir une utilisation sûre et responsable de l’IA. En établissant des limites et des lignes directrices bien définies, la contrôlabilité vise à minimiser les risques potentiels et les conséquences imprévues associés aux systèmes d’IA.

Chatbot

Une interface facile à utiliser qui permet à l'utilisateur de poser des questions et de recevoir des réponses. Selon le système dorsal qui alimente le chatbot, il peut s'agir d'une simple prescription de réponses ou d'une IA entièrement conversationnelle qui automatise la résolution de problèmes.

ChatGPT

GPT-3.5 est un grand modèle de langage développé par OpenAI qui est entraîné sur une quantité massive de données textuelles provenant d'Internet et optimisé pour effectuer un large éventail de tâches de langage naturel. Exemple : GPT-3.5 a été affiné pour des tâches telles que la traduction, le résumé de texte et la réponse à des questions.

Données de validation

Sous-ensemble de l'ensemble de données utilisé dans l'apprentissage automatique, distinct des ensembles de données de formation et de test. Il est utilisé pour ajuster les hyperparamètres (c'est-à-dire l'architecture, et non les poids) d'un modèle.

Données non structurées

Les données non structurées sont des informations qui ne sont pas organisées selon un modèle ou une structure prédéfinis, ce qui les rend difficiles à collecter, à traiter et à analyser.

Pipeline de modèles d'IA

Le pipeline de modèles d'IA fait reference à une technique de science des données dans laquelle plusieurs modèles d'apprentissage automatique sont liés en séquence pour effectuer des prédictions ou des analyses, avec l’utilisation séquentielle de plusieurs modèles d’intelligence artificielle pour accomplir une tâche complexe. Chaque modèle dans le pipeline effectue une étape spécifique du processus, et les résultats de chaque étape sont utilisés comme entrée pour l’étape suivante. Par exemple, dans le traitement du langage naturel (NLP), un pipeline peut inclure : le prétraitement des données, la Tokenisation, le post traitement et ajustement des résultats.

Enrichissement des données

L'enrichissement des données est une technique utilisée pour augmenter artificiellement la taille et la diversité d'un ensemble de formation en créant des copies modifiées de données existantes. Cela implique d'apporter des modifications mineures telles que retourner, redimensionner ou ajuster la luminosité des images, pour améliorer l'ensemble de données et éviter le surajustement des modèles.

Espace latent

Ce terme fait référence à la représentation compressée des données créée par un modèle (tel qu'un réseau neuronal). Les points de données similaires sont plus proches dans l’espace latent.

Scabilité

En intelligence artificielle, la scalabilité fait référence à la capacité d’un système ou d’un modèle à s’adapter à une augmentation de la workloads (Charges de travail) en maintenant performances et fonctionnalités. Cela signifie qu’un système extensible peut gérer une plus grande quantité de données, un nombre accru d’utilisateurs, ou des tâches plus complexes sans dégradation significative de ses performances.

Extraction

L'extraction est la capacité des modèles génératifs à analyser de grands ensembles de données et à en extraire des modèles, des tendances et des éléments spécifiques d'information pertinents.

GPT-3

GPT-3 est la troisième version de la série de modèles GPT-n. Il dispose de 175 milliards de paramètres (boutons réglables) qui peuvent être pondérés pour faire des prédictions. Chat-GPT utilise GPT-3.5, qui est une autre itération de ce modèle.

GPT-4

GPT-4 est le dernier ajout de modèles aux efforts d'apprentissage profond d'OpenAI et constitue une étape importante dans l'évolutivité de l'apprentissage profond. GPT-4 est également le premier modèle GPT qui est un grand modèle multimodal, ce qui signifie qu'il accepte les entrées d'images et de texte et génère des sorties de texte.

Généralisation de faible à fort

La généralisation de faible à fort est une approche de formation en IA qui utilise des modèles moins performants pour guider et contraindre les plus puissants vers une meilleure généralisation au-delà de leurs données de formation étroites. La généralisation peut être classée de faible à forte en fonction de la capacité du modèle à s'adapter à des situations variées et complexes.

Grands modèles de langage (LLM)

Les grands modèles de langage (LLM -Large Language Models) sont des modèles d'intelligence artificielle spécialisés dans la compréhenstion du langage naturel (TLN). Ils sont conçus pour comprendre, interpréter et générer du texte en langage humain Il existe des modèles bien connus, tels que BERT, PaLM, GPT-2, GPT-3, GPT-3.5 et l'innovant GPT-4. Tous ces modèles varient en taille (nombre de paramètres ajustables), en étendue des tâches (codage, chat, scientifique, etc.) et en connaissances sur lesquelles ils ont été formés.

Inférence

L'inférence est le processus par lequel un modèle d'IA, après avoir été entraîné sur un ensemble de données, applique ses connaissances pour tirer des conclusions ou faire des prédictions à partir de nouvelles données : c'est-à-dire mettre en pratique ce que l'IA a appris au cours de sa formation.

Les notions clés de l'inférence en IA passent par : l'application des connaissances : Un modèle utilise ce qu'il a appris pendant l'entraînement pour analyser des données qu'il n'a jamais vues auparavant. les prédictions et decisions : L'inférence permet au modèle de faire des prédictions ou de prendre des décisions basées sur les nouvelles données. L'inférence est essentielle pour que les modèles d'IA puissent être utilisés dans des applications réelles, où ils doivent traiter et réagir à des informations en temps réel.

Ingénierie de prompt

L’ingénierie de prompts est la capacité de créer des demandes spécifiques et efficaces pour interagir avec des modèles de langage, tels que les grands modèles de langage (LLM). Cette discipline vise à formuler des directives claires et contextuelles pour obtenir des réponses précises et pertinentes de la part des modèles d’IA.

Avec l’ingénierie de prompts, il est possible de créer des demandes précises : les prompts doivent être formulés de manière à orienter le modèle d’IA vers des réponses utiles et pertinentes, de comprendre le contexte : il est essentiel de fournir suffisamment de contexte pour que le modèle puisse interpréter correctement la demande, ou encore d’utiliser des techniques variées : l’ingénierie de prompts inclut des techniques comme le zero-shot prompting (aucun exemple fourni), le one-shot prompting (un exemple fourni), et le few-shot prompting (quelques exemples fournis) pour améliorer la qualité des réponses.

Intelligence artificielle (IA)

La simulation de l’intelligence humaine dans des machines programmées pour penser et apprendre comme les humains. Exemple : une voiture autonome capable de naviguer et de prendre des décisions par elle-même grâce à la technologie de l'IA.

Intelligence Générale Artificielle (AGI)

L'intelligence générale artificielle (AGI) fait référence à un système d'IA doté d'un large éventail de capacités cognitives, très similaires à celles des humains, qui lui permettent d'apprendre, de raisonner, de s'adapter à de nouvelles situations et de développer des solutions créatives dans diverses tâches et domaines. étant limité à des tâches spécifiques comme le sont les systèmes d’IA étroits.

IA conversationnelle

Une branche du développement de l'IA axée sur la création de systèmes capables de comprendre et de générer un langage de type humain et de mener une conversation bidirectionnelle. Un exemple de ceci serait un chatbot qui pourrait comprendre et répondre aux requêtes des clients de la même manière qu’une conversation entre personnes.

IA générative

Lintelligence artificielle générative (IA générative) est une branche de l'intelligence artificielle qui se concentre sur la création de modèles capables de générer du contenu original. Cela inclut la génération de texte, d'images, de vidéos, et d'autres types de médias en réponse à des requêtes spécifiques.

Mémoire associative

La mémoire associative fait référence à la capacité d'un système à stocker, récupérer et traiter des informations associées en fonction des connexions entre les éléments, lui permettant d'identifier et d'utiliser efficacement les données pertinentes pour la prise de décision.

Modélisation de séquence

Un sous-domaine du traitement du langage naturel qui se concentre sur la modélisation de données séquentielles telles que du texte, de la parole ou des données de séries chronologiques. Dans ce cas, un modèle de séquence serait capable de prédire le mot suivant dans une phrase ou de générer un texte cohérent.

Modèle de base

Les modèles de base constituent une vaste catégorie de modèles d'IA qui incluent de grands modèles de langage et d'autres types de modèles tels que des modèles de vision par ordinateur et d'apprentissage par renforcement. Ils sont appelés modèles « de base » car ils servent de pilier sur lequel construire des applications, servant un large éventail de domaines et de cas d’utilisation.

Modèle déterministe

Un modèle déterministe suit un ensemble spécifique de règles et de conditions pour parvenir à un résultat définitif, fonctionnant sur une base de cause à effet. C'est un modèle qui produit toujours la même sortie pour une entrée donnée. C'est le contraire du fonctionnement des modèles probabilistes donnant des résultats différents pour la même entrée en raison de la variabilité et de l’incertitude, les modèles déterministes sont conçus pour fournir des résultats précis. Ces modèles sont généralement utilisés dans des situations où la précision et la fiabilité sont cruciales, comme dans le pilotage automatique d’avions ou la robotique industrielle.

Modèle discriminant

Les modèles discriminants sont des algorithmes conçus pour modéliser et apprendre directement la frontière entre différentes classes ou catégories dans un ensemble de données. Ces modèles sont généralement utilisés pour des tâches de classification et de régression, car ils sont généralement plus efficaces en termes de calcul et peuvent offrir de meilleures performances sur des ensembles de données spécifiques

OpenAI

C'est la société qui a développé ChatGPT. OpenAI est, d'une manière générale, une société de recherche qui vise à développer et à promouvoir de manière responsable une IA conviviale. Un exemple est leur version GPT-3 d'OpenAI, l'un des modèles de langage les plus vastes et les plus puissants disponibles pour les tâches de traitement du langage naturel.

Optimisation

Processus d'ajustement des paramètres d'un modèle pour minimiser une fonction de perte qui mesure la différence entre les prédictions du modèle et les valeurs réelles. Il s’agirait de vouloir optimiser les paramètres d’un réseau de neurones à l’aide d’un algorithme de descente de gradient pour minimiser l’erreur entre les prédictions du modèle et les valeurs vraies.

Paramètres

En apprentissage automatique, les paramètres sont les variables internes que le modèle utilise pour effectuer des prédictions. Ils sont appris à partir des données de formation au cours du processus de formation. A titre d'exemple, dans un réseau de neurones, les poids et les biais sont des paramètres.

Plugin IA

Les plugins IA sont des composants logiciels spécialisés qui permettent aux systèmes d'IA d'interagir avec des applications et des services externes.

Pré-entraînement

La phase initiale de formation d'un modèle d'apprentissage automatique où le modèle apprend les caractéristiques générales, les modèles et les représentations des données sans connaissance spécifique de la tâche à laquelle il sera ensuite appliqué. Ce processus d'apprentissage non supervisé ou partiellement supervisé permet au modèle de développer une compréhension fondamentale de la distribution sous-jacente des données et d'extraire des fonctionnalités significatives qui peuvent être exploitées pour un ajustement ultérieur sur des tâches spécifiques.

Préjugés

Ce sont les hypothèses faites par un modèle d’IA sur les données. Un « compromis biais-variance » est l'équilibre qui doit être trouvé entre les hypothèses formulées par un modèle à propos des données et l'ampleur de la modification des prédictions d'un modèle, compte tenu de différentes données d'entraînement. Le biais inductif est l'ensemble d'hypothèses qu'un algorithme d'apprentissage automatique fait sur la distribution sous-jacente des données.

Traitement du langage naturel

Un sous-domaine de l’IA qui implique la programmation d’ordinateurs pour traiter d’énormes volumes de données linguistiques. Il se concentre sur la transformation d’un texte au format libre en une structure standardisée.

Traitement de la voix

Le traitement de la parole dans l’IA fait référence à la séquence de conversion parole-texte suivie d’une synthèse texte-parole.

Prompts récurrents

Les prompts récurrents sont une stratégie pour guider les modèles d'IA comme le GPT-4 d'OpenAI afin de produire des résultats de meilleure qualité. Cela implique de fournir au modèle une série de prompts ou de questions qui s'appuient sur les réponses précédentes, en affinant à la fois le contexte et la compréhension de l'IA pour obtenir le résultat souhaité.

Raisonnement

Le raisonnement de l'IA est le processus par lequel les systèmes d'intelligence artificielle résolvent des problèmes, réfléchissent de manière critique et créent de nouvelles connaissances en analysant et en traitant les informations disponibles, leur permettant ainsi de prendre des décisions éclairées dans diverses tâches et domaines.

Raisonnement multi-sauts

Le multi-saut est un terme souvent utilisé dans le traitement du langage naturel, et plus particulièrement dans les tâches liées à la compréhension en lecture automatique. Il fait référence au processus par lequel un modèle d'IA récupère les réponses aux questions en connectant plusieurs informations présentes dans un texte donné ou dans diverses sources et systèmes, plutôt que d'extraire directement les informations d'un seul passage.

Reconnaissance vocale automatique

La reconnaissance automatique de la parole (ASR) est une technologie qui transcrit le langage parlé en texte.

Réseau neuronal

Un modèle d'apprentissage automatique inspiré de la structure et du fonctionnement du cerveau humain, composé de couches de nœuds interconnectés ou « neurones ». Ils permettent de reconnaître des modèles et de résoudre des problèmes, sur la base d'un entraînement automatique ou d'un apprentissage profond, cherchant à modéliser les mécanismes d'analyse du cerveau humain.

Réseaux antagonistes génératifs

Les Réseaux antagonistes génératifs appelés GANs, sont un cadre de réseaux de neurones profonds, capable de générer de nouvelles informations inédites à partir d'un ensemble de données d'entraînement.

Rétropropagation

Appelée la backpropagation en anglais, est un algorithme fréquemment utilisé dans la formation de réseaux de neurones artificiels. Ajuste les poids des connexions entre les neurones pour minimiser l'erreur de prédiction d'un modèle. Il est efficace, par exemple, pour la reconnaissance de formes ou la classification d'images.

Singularité

Dans le contexte de l’IA, la singularité (également appelée singularité technologique) fait référence à un moment futur hypothétique où la croissance technologique deviendra incontrôlable et irréversible, entraînant des changements imprévisibles dans la civilisation humaine.

Surapprentissage

Le surapprentissage (Overfitting en anglais) est un problème qui se produit lorsqu'un modèle est trop complexe, fonctionne bien sur les données d'entraînement, mais mal sur les données invisibles. Un exemple de surajustement serait le cas d'un modèle qui a mémorisé les données d'entraînement au lieu d'apprendre des modèles généraux, et qui fonctionne donc mal sur les nouvelles données.

Diffusion stable

Il s'agit d'un système d'intelligence artificielle open source qui utilise l'apprentissage en profondeur pour générer des images à partir d'invites de texte naturel.

synthèse vocale

La synthèse vocale (TTS) est une technologie qui convertit le texte écrit en sortie vocale. Il permet aux utilisateurs d'entendre un contenu écrit lu à haute voix, généralement à l'aide d'une parole synthétisée.

Tokenisation

Processus de décomposition du texte en mots individuels ou sous-mots pour les intégrer dans un modèle de langage. Exemple : symbolisez une phrase « Je suis ChatGPT » en mots : « Je », « Je suis », « Chat », « G » et « PT ».

Transformer

Il représente un type d'architecture de réseau neuronal conçu pour traiter des données séquentielles, telles que du texte. L'architecture transformatrice apprend le contexte et par conséquent le sens. Il est utilisé dans des modèles comme ChatGPT pour les tâches de traitement du langage naturel.

Cross-validation

Il s'agit d'une méthode utilisée pour évaluer les résultats d'une analyse et garantir l'exactitude des prédictions des modèles d'apprentissage automatique. Il peut s'agir d'une division des données : avec un ensemble de données divisé en plusieurs sous-ensembles appelés "plis" ou "folds". Entraînement et test avec un modèle entraîné sur certains plis et testé sur les plis restants. l'évaluation avec les performances du modèle qui sont évaluées sur chaque pli, et les résultats sont ensuite moyennés pour obtenir une estimation plus fiable de la performance globale du modèle. Cela permet de détecter le surapprentissage, d'optimiser les hyperparamètres et de comparer plusieurs modèles

Tags