Skip to content

Glossaire


À mesure que la recherche et les applications de l'IA se développent, il devient de plus en plus important de comprendre les termes et concepts clés qui sous-tendent cette technologie, ce glossaire sur l'IA a pour objectif de fournir une compréhension claire et concise des principaux termes, techniques et concepts utilisés dans le domaine de l'intelligence artificielle.

A

Algorithme

Un algorithme est une série d'étapes ou d'instructions claires et précises pour résoudre un problème ou effectuer une tâche. Pensez à l'algorithme comme à une recette de cuisine : il vous guide étape par étape pour arriver à un résultat final. Dans le contexte de l'informatique, les algorithmes sont utilisés pour aider les ordinateurs et les programmes à accomplir des tâches spécifiques en suivant un ensemble défini de règles et de procédures.

Algorithme génétique

Méthode d'optimisation inspirée de la sélection naturelle et de la génétique, utilisée pour trouver des solutions approximatives à des problèmes d'optimisation et de recherche.

Annotation

L'annotation est le procédé par lequel les données sont décrites manuellement afin d'être caractérisées, par exemple en attribuant à une image de chien l'étiquette correspondante. On parle aussi de vérité terrain ou groundtruth.

Apprentissage automatique

L'apprentissage automatique (machine learning en anglais) est un champ d'étude de l'intelligence artificielle qui vise à donner aux machines la capacité d'« apprendre » à partir de données, via des modèles mathématiques. Plus précisément, il s'agit du procédé par lequel les informations pertinentes sont tirées d'un ensemble de données d'entraînement.

Le but de cette phase est l'obtention des paramètres d'un modèle qui atteindront les meilleures performances, notamment lors de la réalisation de la tâche attribuée au modèle. Une fois l'apprentissage réalisé, le modèle pourra ensuite être déployé en production.

Apprentissage en ligne

Méthode d'apprentissage automatique où un modèle est mis à jour de manière incrémentielle à mesure que de nouvelles données sont disponibles, sans nécessiter de réentraînement complet.

Apprentissage fédéré

Approche d'apprentissage automatique où plusieurs dispositifs ou serveurs collaborent pour apprendre un modèle partagé tout en maintenant la confidentialité des données locales.

Apprentissage multi-instance

Variante de l'apprentissage supervisé où les étiquettes sont associées à des ensembles d'exemples plutôt qu'à des exemples individuels.

Apprentissage multitâche

Méthode d'apprentissage automatique où un modèle est entraîné simultanément pour résoudre plusieurs tâches liées, améliorant ainsi la performance globale.

Apprentissage non supervisé

L'apprentissage non supervisé est un procédé d'apprentissage automatique dans lequel l'algorithme utilise un jeu de données brutes et obtient un résultat en se fondant sur la détection de similarités entre certaines de ces données.

Apprentissage par transfert

Technique d'apprentissage automatique qui utilise les connaissances acquises à partir d'un problème ou d'un domaine pour résoudre un problème similaire ou dans un domaine connexe.

Apprentissage semi-supervisé

Méthode d'apprentissage automatique qui combine des données étiquetées et non étiquetées pour améliorer la performance du modèle.

Apprentissage supervisé

L'apprentissage supervisé est un procédé d'apprentissage automatique dans lequel l'algorithme s'entraîne à une tâche déterminée en utilisant un jeu de données assorties chacune d'une annotation indiquant le résultat attendu.

Apprentissage par renforcement

L'apprentissage par renforcement est un procédé d'apprentissage automatique consistant, pour un système autonome, à apprendre les actions à réaliser, à partir d'expériences, de façon à optimiser une récompense quantitative au cours du temps.

Le système est plongé au sein d'un environnement, et prend ses décisions en fonction de son état courant. En retour, l'environnement procure une récompense, qui peut être positive ou négative.

Au fil des expériences, le système cherche un comportement décisionnel optimal, en ce sens qu'il maximise la somme des récompenses au cours du temps.

Apprentissage profond

(deep learning) L'apprentissage profond est un procédé d'apprentissage automatique utilisant des réseaux de neurones possédants plusieurs couches de neurones cachées. Ces algorithmes possédant de très nombreux paramètres, ils demandent un nombre très important de données afin d'être entraînés.

Attaque par empoisonnement

(data poisoning attack) Les attaques par empoisonnement visent à modifier le comportement du système d'IA en introduisant des données corrompues en phase d'entraînement (ou d'apprentissage). Elles supposent que l'attaquant soit en mesures de soumettre des données à utiliser lors de l'entraînement du système d'IA.

Attaque par exemples contradictoires

(adversarial examples attack) Les attaques par exemples contradictoires visent à soumettre des entrées malicieuses ou corrompues au système d'IA en phase de production.

Exemple : une image qui aurait été modifiée de façon à tromper un classifieur d'image et ainsi attribuer à une image de panda, l'étiquette de singe.

Ces entrées apparaissent, pour un humain, quasiment identiques à leurs copies non altérées.

À la suite de cette attaque, qui peut être vue comme l'équivalent d'une illusion d'optique, le comportement du système d'IA est profondément altéré.

Attaque par exfiltration de modèle

(model evasion attack) Les attaques par exfiltration de modèle visent à permettre le vol d'un modèle d'IA et/ou de ses paramètres et hyperparamètres. Le modèle constitue un actif de grande valeur pour un système d'IA.

Attaque par inférence d'appartenance

(membership inference attack) Les attaques par inférence d'appartenance visent à permettre à un attaquant d'acquérir des connaissances sur les données utilisées pour la production du modèle d'IA.

En pratique, il s'agit de déterminer si des données relatives à un individu ont été utilisées lors de la phase d'entraînement (ou d'apprentissage). Cette connaissance peut permettre à l'attaquant de déduire des informations concernant une personne (par exemple déterminer s'il est atteint d'une pathologie).

Attaque par inversion de modèle

(model inversion attack) Les attaques par inversion visent à reconstruire les données ayant servi pour l'apprentissage du système. En pratique, les attaques par inversion sont menées en soumettant un grand nombre d'entrées au système d'IA et en observant les sorties produites. On utilise, de façon équivalente, le terme d'attaque par extraction de données (data extraction attacks).

Augmentation de données

Dans le domaine de l'intelligence artificielle, le processus d'augmentation de données accroît la quantité de données d'entraînement par la création de nouvelles données à partir des données existantes.

Cette augmentation peut être réalisée par différentes opérations, par exemple, dans le cas d'images, par translation, rotation, ajout de bruit, etc.

Auto-encodeur

Type de réseau de neurones artificiels utilisé pour l'apprentissage non supervisé, qui apprend à reproduire ses entrées en minimisant l'erreur de reconstruction.

Auto-encodeur variationnel (VAE)

Variante de l'auto-encodeur qui apprend une représentation probabiliste des données d'entrée, permettant la génération de nouvelles données similaires.

B

BERT

(Bidirectional Encoder Representations from Transformers) Modèle de traitement du langage naturel basé sur l'architecture Transformer, qui apprend des représentations contextuelles bidirectionnelles pour une meilleure compréhension du langage.

Biais (IA)

Erreur systématique dans les prédictions d'un modèle d'apprentissage automatique due à des hypothèses incorrectes ou à des données d'apprentissage inadéquates.

Bulle de filtre

Phénomène principalement observé sur les réseaux sociaux où les algorithmes de recommandation – qui alimentent par exemple les fils d'actualité des publications susceptibles d'intéresser les utilisateurs– peuvent parfois ne proposer que des contenus similaires entre eux.

Ce phénomène intervient lorsqu'un algorithme est paramétré pour ne proposer que des résultats correspondant aux goûts connus d'un utilisateur, il ne sortira alors jamais des catégories connues.

C

Caractéristique

Dans le domaine de l'intelligence artificielle, la caractéristique (feature en anglais) est la variable utilisée pour représenter une propriété définie d'une entité ou d'un objet.

Il peut s'agir d'informations relatives à la forme, la texture, ou encore à la couleur d'une image. Dans le cas d'un fichier audio, à la hauteur des sons, au timbre ou au tempo.

Chatbot

Le chatbot, également connu sous le nom d'agent conversationnel ou d'assistant virtuel en français, est un système conçu pour interagir avec les utilisateurs à travers des dialogues. Son objectif est de fournir des réponses pertinentes aux questions posées par l'utilisateur.

Classification

La classification est une méthode de catégorisation qui consiste à attribuer une classe ou catégorie à une entrée qui lui est soumise en fonction de sa proximité à la classe en question selon des critères bien choisis.

Exemple : un système d'IA entraîné pour la reconnaissance d'images d'animaux utilise des techniques de classification : oiseaux, chiens, poissons...

Continual learning

C'est un paradigme d'apprentissage automatique dans lequel un modèle apprend de manière séquentielle à partir de nouvelles données ou tâches sans oublier les connaissances acquises précédemment. Il vise à résoudre le problème de l'oubli catastrophique, où un modèle oublie les informations apprises lorsqu'il est exposé à de nouvelles données.

Couche de neurones

Organisation des neurones dans un réseau. Il n'y a pas de connexion entre les neurones d'une même couche : les connexions ne se font qu'avec les neurones de la couche suivante.

Généralement, chaque neurone d'une couche est lié avec tous les neurones de la couche en aval et celle-ci uniquement.

On appelle couche d'entrée l'ensemble des neurones d'entrée et couche de sortie l'ensemble des neurones de sortie.

Les couches intermédiaires n'ont pas de contact avec l'extérieur et sont donc nommées couches cachées.

Critère d'arrêt

Élément de contrôle de l'évolution d'un algorithme d'apprentissage automatique qui permet, s'il est atteint, d'arrêter le processus itératif.

Il peut prendre différentes formes : la fonction de perte (qui permet de calculer l'erreur de prédiction) a suffisamment décru, le nombre d'itérations fixé est atteint, etc.

D

Dérive du modèle

La dérive du modèle est la perte d'adéquation entre un modèle et la tâche qu'il doit accomplir. Cette dérive peut résulter d'un réapprentissage du modèle ou d'une évolution de l'environnement dans lequel il s'applique (domaine d'emploi).

Domaine d'emploi

Dans le domaine de l'intelligence artificielle, le domaine d'emploi est la description de l'environnement et de la population visée par le procédé d'apprentissage automatique.

Donnée brute

Dans le domaine de l'intelligence artificielle, une donnée brute est une donnée n'ayant subi aucune transformation depuis son observation initiale.

Donnée de sortie

Dans le domaine de l'intelligence artificielle, une donnée de sortie est une valeur représentant tout ou partie de l'opération effectuée par le système d'IA à partir des données d'entrée.

Donnée d'entrée

Dans le domaine de l'intelligence artificielle, une donnée d'entrée est une donnée utilisée pour l'apprentissage automatique ou la prise de décision du système d'IA (en phase de production).

E

Échantillon

Dans le domaine de l'intelligence artificielle, l'échantillon est une fraction représentative d'une population ou d'un univers statistique.

Ensemble de test

Jeu de données utilisé lors de la phase de test.

Ensemble de validation

Jeu de données utilisé lors de la phase de validation.

Ensemble d'entraînement/d'apprentissage

Jeu de données (texte, sons, images, listes, etc.) utilisé lors de la phase d'entrainement / d'apprentissage : le système s'entraîne sur ces données pour effectuer la tâche attendue de lui.

Entraînement (ou apprentissage)

L'entraînement est le processus de l'apprentissage automatique pendant lequel le système d'intelligence artificielle construit un modèle à partir de données.

Estimation bayésienne

L'estimation ou inférence bayésienne s'appuie sur un théorème énoncé par le mathématicien Thomas Bayes. Ce théorème donne une méthode pour calculer la probabilité d'un phénomène grâce à la connaissance de certaines informations. L'estimation bayésienne est donc la méthode qui s'appuie sur ce raisonnement.

Exemple : sachant d'une part que mes chaussures sont peu adhérentes, et d'autre part qu'il a plu, le risque de glisser lors de mon trajet au travail ce matin est élevé.

Explicabilité

Dans le domaine de l'intelligence artificielle, l'explicabilité est la capacité de mettre en relation et de rendre compréhensible les éléments pris en compte par le système d'IA pour la production d'un résultat.

Il peut s'agir, par exemple, des variables d'entrée et de leurs conséquences sur la prévision d'un score, et ainsi sur la décision.

Les explications doivent être adaptées au niveau de compréhension de la personne auxquelles elles sont destinées.

Extraction de caractéristiques

(feature extraction) Dans le domaine de l'intelligence artificielle, l'extraction de caractéristiques est l'étape au cours de laquelle sont induites depuis des données brutes (fichier son, image, document textuel, tableau numérique, etc.) des caractéristiques (features) sur lesquelles le système d'IA doit se reposer pour effectuer la tâche pour laquelle il est programmé.

La définition de ces caractéristiques et leur nature discriminante sont essentielles.

F

Few-shot learning

C'est une approche d'apprentissage automatique où un modèle est entraîné à reconnaître de nouvelles classes ou catégories avec un très petit nombre d'exemples d'apprentissage.

Fonction de perte ou de coût

(loss function) Dans le domaine de l'intelligence artificielle, la fonction de perte ou de coût est la quantification de l'écart entre les prévisions du modèle et les observations réelles du jeu de donnée utilisé pendant l'entraînement.

La phase d'entraînement vise à trouver les paramètres du modèle qui permettront de minimiser cette fonction.

Fonction d'activation

Dans le domaine de l'intelligence artificielle, la fonction d'activation peut être vu comme l'équivalent du « potentiel d'activation » qu'on retrouve dans les neurones biologiques.

Cette fonction détermine si un neurone artificiel doit être activé ou pas et, dans le premier cas, le degré de cette activation.

Il existe plusieurs fonctions apportant chacune des comportements différents (sigmoïde, tangente hyperbolique, ReLU, etc.).

G

GPT

(Generative Pre-trained Transformer) Modèle de traitement du langage naturel basé sur l'architecture Transformer, pré-entraîné sur de grandes quantités de texte et utilisé pour générer du texte.

Gradient

Le gradient est, en mathématiques, un vecteur représentant la variation d'une fonction au voisinage d'un point donné (en pratique, lorsqu'on dessine une courbe, plus le gradient est élevé, plus la « pente » de la courbe est forte).

Appliqué au cas de l'apprentissage d'un modèle d'IA, le gradient est utilisé pour mettre en œuvre l'algorithme de descente de gradient (ou algorithme de la plus forte pente). Ce dernier permet d'obtenir un résultat optimal selon certains critères (par exemple : minimisation d'une fonction de perte), de manière itérative, c'est-à-dire par une succession d'étapes.

Différentes stratégies existent pour réaliser la descente de gradient qui mobilisent des ensembles de données différents (batch gradient descent, mini-batch gradient descent, stochastic gradient descent, etc.).

H

Hyperparamètre

Élément indépendant de l'apprentissage tels que le nombre de nœuds et la taille des couches cachées du réseau de neurones, l'initialisation des poids, le coefficient d'apprentissage, la fonction d'activation, etc.

I

Informatique évolutionniste

Paradigme de l'informatique qui s'inspire des mécanismes évolutifs pour résoudre des problèmes d'optimisation et de recherche.

Intelligence artificielle

L'intelligence artificielle est un procédé logique et automatisé reposant généralement sur un algorithme et en mesure de réaliser des tâches bien définies. Pour le Parlement européen, constitue une intelligence artificielle tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». Plus précisément, la Commission européenne considère que l'IA regroupe :

  • les approches d'apprentissage automatique ;
  • les approches fondées sur la logique et les connaissances ; et
  • les approches statistiques, l'estimation bayésienne, et les méthodes de recherche et d'optimisation.

Interprétabilité

Propriété d'un modèle d'apprentissage automatique qui permet de comprendre et d'expliquer ses prédictions ou son fonctionnement interne.

L

Large modèle de langage (LLM)

Un large modèle de langage (LLM) est un type de modèle d'intelligence artificielle conçu pour comprendre et générer du texte en langage naturel. Ces modèles sont entraînés sur d'énormes quantités de données textuelles et sont capables de traiter et de générer du texte de manière très similaire à celle d'un humain.

Long Short-Term Memory (LSTM)

Type de réseau de neurones récurrents conçu pour capturer des dépendances à long terme dans les séquences de données.

Life-long learning

Aussi appelé "apprentissage continu", c'est un paradigme d'apprentissage automatique dans lequel un modèle continue d'apprendre et de s'adapter tout au long de sa vie, en intégrant de nouvelles connaissances et expériences sans oublier ce qu'il a déjà appris.

M

Méta-apprentissage

Approche d'apprentissage automatique où un modèle apprend à apprendre en utilisant l'expérience acquise à partir de la résolution de divers problèmes ou tâches.

Modèle (IA)

Le modèle d'IA est la construction mathématique générant une déduction ou une prédiction à partir de données d'entrée. Le modèle est estimé à partir de données annotées lors de la phase d'apprentissage (ou d'entraînement) du système d'IA.

Modèle discriminatif

Modèle capable de réaliser une prédiction quant à l'appartenance à une classe pour des données nouvelles sur la base d'un apprentissage réalisé auparavant sur un jeu de données d'entraînement.

Modèle génératif

Modèle défini par opposition à un modèle discriminatif. Il permet à la fois de générer de nouveaux exemples à partir des données d'entraînement et d'évaluer la probabilité qu'un nouvel exemple provienne ou ait été généré à partir des données d'entraînement.

Multi-modal learning

C'est une approche d'apprentissage automatique qui utilise plusieurs types de données ou modalités (par exemple, texte, images, audio) pour entraîner un modèle à accomplir une tâche.

Multi-task learning

C'est une approche d'apprentissage automatique où un modèle est entraîné pour accomplir plusieurs tâches différentes en même temps, en partageant des informations et des représentations communes entre ces tâches.

N

Neurone artificiel

Un neurone artificiel fonctionne d'une manière inspirée de celle d'un neurone biologique : un nœud d'un réseau de plusieurs neurones reçoit généralement plusieurs valeurs d'entrée et génère une valeur de sortie.

Le neurone calcule la valeur de sortie en appliquant une fonction d'activation à une somme pondérée des valeurs d'entrée.

O

Optimisation

Processus visant à trouver les paramètres optimaux d'un modèle d'apprentissage automatique en minimisant une fonction de perte ou de coût.

P

Paramètre (IA)

Dans le domaine de l'intelligence artificielle, le paramètre est la propriété apprise des données utilisées pour l'entraînement (par exemple le poids de chaque neurone d'un réseau).

Partitionnement de données

Le partitionnement de données (clustering en anglais) est une méthode ayant pour but de diviser un ensemble de données en différents sous-ensembles homogènes, c'est-à-dire partageant des caractéristiques communes.

Ces caractéristiques reposent sur des critères de proximité définis en introduisant la notion de distance entre les objets.

Programmation génétique

Méthode d'optimisation inspirée de la génétique qui cherche à résoudre des problèmes en évoluant des programmes informatiques.

Pruning

C'est une technique d'optimisation des modèles de machine learning qui consiste à supprimer certains éléments du modèle (comme les neurones, les connexions ou les poids) qui ont peu ou pas d'impact sur les performances, afin de réduire la taille du modèle et d'accélérer les temps d'inférence.

Q

Quantization

C'est une technique d'optimisation des modèles de machine learning qui consiste à réduire la précision des poids et des activations du modèle, permettant ainsi une réduction de la taille du modèle et une accélération des temps d'inférence sans sacrifier de manière significative les performances.

R

Random Forest (Ensembles d'arbres de décision)

Un Random Forest est un algorithme d'apprentissage supervisé basé sur un ensemble d'arbres de décision. Chaque arbre est construit de manière aléatoire à partir d'un sous-ensemble des données d'entraînement, et la prédiction finale est obtenue en combinant les prédictions de tous les arbres individuels par un vote majoritaire (pour les tâches de classification) ou en moyennant les prédictions (pour les tâches de régression). Cette approche permet d'améliorer la robustesse et de réduire la variance des prédictions par rapport à un seul arbre de décision.

Recherche aléatoire

(Random Search) Méthode d'optimisation des hyperparamètres qui évalue un ensemble aléatoire de combinaisons d'hyperparamètres pour trouver la meilleure configuration.

Recherche par quadrillage

(Grid Search) Méthode d'optimisation des hyperparamètres qui évalue systématiquement toutes les combinaisons d'hyperparamètres dans un espace prédéfini pour trouver la meilleure configuration.

Réduction de dimension ou dimensionnalité

Méthode permettant de diminuer la quantité d'information en ne conservant que le strict nécessaire, permettant ainsi d'obtenir plus d'efficacité en termes de résultats et de temps d'analyse.

Cette réduction de l'information utile peut se faire par sélection des caractéristiques les plus pertinentes ou par création de nouvelles caractéristiques plus appropriées que celles de départ.

Réseau de neurones artificiels

(artificial neural network) Dans le domaine de l'intelligence artificielle, un réseau de neurones artificiels est un ensemble organisé de neurones interconnectés permettant la résolution de problèmes complexes tels que la vision par ordinateur ou le traitement du langage naturel.

Il s'agit d'un type particulier d'algorithmes d'apprentissage automatique (comme les machines à vecteur de support (SVM en anglais), arbres de décision, K plus proches voisins, etc.) caractérisés par un grand nombre de couches de neurones, dont les coefficients de pondération sont ajustés au cours d'une phase d'entraînement (apprentissage profond).

Il existe de nombreux type de réseaux de neurones artificiels tels que les réseaux de neurones récurrents, les auto-encodeurs, les réseaux transformeurs ou encore les réseaux antagonistes génératifs (generative adversarial networks).

Réseau antagoniste génératif (GAN)

Modèle d'apprentissage profond où deux réseaux de neurones (un générateur et un discriminateur) sont entraînés simultanément en compétition pour générer des données réalistes.

Réseau de neurones convolutif (CNN)

Type de réseau de neurones artificiels utilisé principalement pour le traitement d'images, qui utilise des couches de convolution pour détecter des caractéristiques locales dans les données.

Réseau de neurones récurrent (RNN)

Type de réseau de neurones artificiels conçu pour traiter des séquences de données en mémorisant l'information passée à travers des boucles internes.

Rétropropagation

(backpropagation) Algorithme d'optimisation utilisé pour entraîner les réseaux de neurones, qui calcule le gradient de la fonction de perte par rapport aux poids du réseau en propageant les erreurs de la sortie vers l'entrée.

Robustesse

Dans le domaine de l'intelligence artificielle, la résilience est la capacité du système à maintenir sa conformité à des exigences de performance et/ou de sécurité en présence de données d'entrée extérieures à son domaine d'emploi (par exemple en raison d'un défaut sur un capteur).

S

Segmentation des données

La segmentation des données est une méthode permettant la division d'un corpus de données en plusieurs ensembles (par exemple d'entraînement, de validation et de test), soit à partir de critères objectifs (date, âge, etc.) soit de manière aléatoire.

Surapprentissage

(overfitting) Dans le domaine de l'intelligence artificielle, le surapprentissage entraîne un modèle qui correspond trop précisément à une collection particulière de données utilisées pour l'entrainement. Cette analyse risque de ne pas correspondre à des données utilisées en phase de production et donc de ne pas permettre une utilisation fiable du système d'IA.

Système expert

Système informatique basé sur des règles et des connaissances d'experts humains, conçu pour résoudre des problèmes complexes dans un domaine spécifique.

Synthèse vocale (TTS)

Technique qui convertit du texte en parole à l'aide de modèles d'apprentissage automatique ou de règles linguistiques.

T

Taux d'apprentissage

(learning rate) Dans le domaine de l'intelligence artificielle, le taux d'apprentissage est le facteur multiplicatif appliqué au gradient. À chaque itération, l'algorithme de descente de gradient multiplie le taux d'apprentissage par le gradient.

Le taux d'apprentissage est un hyperparamètre qui joue sur la rapidité de la descente de gradient : un nombre d'itérations plus ou moins important est nécessaire avant que l'algorithme ne converge, c'est-à-dire qu'un apprentissage optimal du réseau soit réalisé.

Test

Dans le domaine de l'intelligence artificielle, le test est un processus consistant à évaluer les performances d'un système et à rechercher des erreurs liées à l'exécution d'un algorithme ou d'un programme en s'appuyant sur des jeux de données d'entrée n'ayant pas été utilisés lors de la phase d'entraînement.

Traitement automatique de la parole

Ensemble de disciplines dont l'objectif est la captation, la transmission, l'identification et la synthèse de la parole. Ces disciplines rassemblent notamment la reconnaissance de la parole, la synthèse de la parole, l'identification du locuteur ou encore la vérification du locuteur.

Traitement automatique du langage naturel

(natural language processing ou NLP) Le traitement automatique du langage naturel est un domaine multidisciplinaire impliquant la linguistique, l'informatique et l'intelligence artificielle.

Il vise à créer des outils de capable d'interpréter et de synthétiser du texte pour diverses applications.

Transformer

Architecture de réseau de neurones basée sur l'attention, utilisée principalement pour le traitement du langage naturel et la traduction automatique.

V

Validation

Dans le domaine de l'intelligence artificielle, la validation est un processus consistant à expérimenter, observer et optimiser (en modifiant les hyperparamètres notamment) le comportement du système lors de son exécution. Elle permet de s'assurer, dans le domaine d'emploi, de l'adéquation des données de sortie avec les résultats attendus.

Variance (IA)

Mesure de la sensibilité d'un modèle d'apprentissage automatique aux fluctuations dans les données d'entraînement, qui peut conduire à un surapprentissage si elle est trop élevée.

Vision par ordinateur

(computer vision) La vision par ordinateur est une branche de l'intelligence artificielle dont le principal but est de permettre à une machine d'analyser et traiter une ou plusieurs images ou vidéos prises par un système d'acquisition.

Z

Zero-shot learning

C'est une approche d'apprentissage automatique où un modèle est capable de reconnaître de nouvelles classes ou catégories sans avoir été exposé à des exemples d'apprentissage pour ces classes spécifiques. Il s'appuie généralement sur des connaissances préalablement acquises et des relations sémantiques entre les classes.