Glossaire des termes liés à l’intelligence artificielle

Partager la publication

# A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
A

Abandon (Dropout)
Technique de régularisation utilisée dans les réseaux neuronaux pour éviter le surapprentissage.

Agent
Une entité (logiciel ou matériel) qui perçoit son environnement et prend des mesures pour atteindre ses objectifs, souvent utilisée dans les systèmes multi-agents et les processus décisionnels.

Algorithme
Ensemble de règles ou d'instructions bien définies permettant de résoudre un problème ou d'effectuer un calcul.

Algorithme (Algorithm)
Ensemble de règles pour résoudre un problème en un nombre fini d'étapes.

Algorithmes génétiques (Genetic Algorithms)
Les algorithmes génétiques sont des techniques d'optimisation inspirées de la sélection naturelle. Ils font évoluer les solutions au fil des générations en combinant et en modifiant les solutions candidates.

AlphaGo
IA développée par DeepMind qui a battu un champion du monde de Go.

Analyse en Composantes Principales (Principal Component Analysis (PCA))
Technique de réduction de la dimensionnalité des données.

Analyse sémantique latente (Latent Semantic Analysis (LSA))
L'analyse sémantique latente est une technique permettant d'extraire des informations sémantiques latentes d'une collection de documents. Elle est utilisée pour l'analyse de texte et la modélisation thématique.

API (Application Programming Interface)
Une API définit les protocoles d'interaction entre deux applications logicielles. Elle spécifie comment les données peuvent être échangées entre différents programmes. Les API sont souvent écrites dans des langages de programmation tels que C++ ou JavaScript.

Apprentissage à partir de peu d'exemples (Few-Shot Learning)
Entraînement des modèles à apprendre des informations à partir de quelques exemples d'entraînement seulement.

Apprentissage à partir de zéro (Zero-Shot Learning)
La capacité des modèles génératifs à effectuer des tâches sans aucune formation explicite sur ces tâches, en tirant parti de leurs connaissances et de leur compréhension générales.

Apprentissage actif génératif (Generative Active Learning)
Utilisation de modèles génératifs dans des contextes d'apprentissage actif, où le modèle peut rechercher activement de nouvelles données étiquetées afin d'améliorer ses performances.

Apprentissage automatique antagoniste (Adversarial Machine Learning)
Un domaine d'étude qui se concentre sur la robustesse et la sécurité des modèles d'apprentissage automatique. Il s'agit de comprendre comment les modèles peuvent être attaqués ou manipulés et de développer des méthodes pour se défendre contre ces attaques.

Apprentissage automatique des machines (AutoML)
Le processus d'automatisation complet de l'apprentissage automatique de l'application aux problèmes du monde réel. L'AutoML vise à rendre l'apprentissage automatique accessible aux non-experts et à améliorer l'efficacité de la construction de modèles d'apprentissage automatique.

Apprentissage basé sur les instances (Instance-Based Learning)
L'apprentissage basé sur les instances (ou apprentissage paresseux) s'appuie sur les instances stockées (points de données) pour faire des prédictions. Les exemples incluent les k-nearest neighbors (k-NN : k-voisins les plus proches) et le raisonnement basé sur les cas.

Apprentissage continu génératif (Generative Continual Learning)
La capacité des modèles génératifs à apprendre continuellement et à s'adapter à de nouvelles données ou tâches sans oublier de manière catastrophique les connaissances antérieures.

Apprentissage contradictoire
Une technique de formation pour les modèles d'IA dans laquelle deux modèles sont en concurrence l'un avec l'autre. L'un des modèles tente de générer des données qui trompent l'autre, tandis que l'autre modèle apprend à être plus robuste face à de telles attaques. Cette technique est utilisée pour améliorer la sécurité et la fiabilité des modèles d'IA.

Apprentissage d'ensemble (Ensemble Learning)
L'apprentissage d'ensemble consiste à combiner plusieurs modèles (par exemple : arbres de décision, réseaux neuronaux) afin d'améliorer la précision globale des prédictions.

Apprentissage de la représentation (Representation Learning)
Le processus d'apprentissage de représentations riches et transférables des données qui peuvent être utiles pour diverses tâches en aval.

Apprentissage fédéré génératif
L'utilisation de modèles génératifs dans des contextes d'apprentissage fédéré, où les modèles sont formés sur des données décentralisées tout en préservant la confidentialité et la propriété des données.

Apprentissage génératif à partir d'un ensemble ouvert (Generative Open-Set Learning)
Capacité des modèles génératifs à détecter et à traiter des données nouvelles ou hors distribution pendant l'inférence ou la génération.

Apprentissage génératif des compétences (Generative Skill Learning)
L'utilisation de modèles génératifs pour apprendre et représenter des compétences ou des connaissances procédurales, souvent pour des tâches telles que la robotique ou le jeu.

Apprentissage génératif des programmes d'études
L'utilisation de modèles génératifs pour créer des programmes d'études synthétiques ou des exemples de formation pour l'apprentissage des programmes d'études, où le modèle est formé sur des exemples de plus en plus difficiles.

Apprentissage génératif par renforcement
Combinaison de réseaux adversaires génératifs et d'apprentissage par renforcement, souvent utilisée pour des tâches telles que le transfert simulé ou l'apprentissage par imitation.

Apprentissage génératif par renforcement (Generative Reinforcement Learning)
Utilisation de modèles génératifs dans des tâches d'apprentissage par renforcement, telles que la simulation d'environnements ou la génération d'expériences synthétiques pour la formation d'agents

Apprentissage génératif par transfert
L'utilisation de modèles génératifs dans des contextes d'apprentissage par transfert, où les connaissances d'un domaine ou d'une tâche sont transférées à un autre domaine ou à une autre tâche.

Apprentissage génératif semi-supervisé
L'utilisation de modèles génératifs dans des contextes d'apprentissage semi-supervisé, où des données étiquetées et non étiquetées sont utilisées pour la formation.

Apprentissage inverse par renforcement (Inverse Reinforcement Learning (IRL))
Technique d'apprentissage des fonctions de récompense sur la base du comportement observé.

Apprentissage par imitation générative (Generative Adversarial Imitation Learning)
Technique qui combine les réseaux adversaires génératifs avec l'apprentissage par imitation pour apprendre des politiques à partir de démonstrations ou du comportement d'experts.

Apprentissage par renforcement (Reinforcement Learning)
L'apprentissage par renforcement consiste à former des agents d'intelligence artificielle à prendre des décisions séquentielles en interagissant avec un environnement. Il utilise des récompenses et des pénalités pour apprendre les politiques optimales.

Apprentissage par renforcement à partir du retour d'information humain (RLHF)
Formation de systèmes d'IA à l'aide du retour d'information d'évaluateurs humains (Reinforcement Learning from Human Feedback (RLHF)).

Apprentissage par renforcement basé sur un modèle génératif
L'utilisation de modèles génératifs pour apprendre des modèles dynamiques ou des simulateurs pour l'apprentissage par renforcement basé sur un modèle.

Apprentissage par renforcement en profondeur (Deep Reinforcement Learning)
L'apprentissage par renforcement en profondeur combine l'apprentissage en profondeur et l'apprentissage par renforcement. Il est utilisé pour former des agents à prendre des décisions séquentielles dans des environnements complexes.

Apprentissage par renforcement génératif inverse
Utilisation de modèles génératifs dans des contextes d'apprentissage par renforcement inverse, où l'objectif est de déduire la fonction de récompense ou la politique à partir de démonstrations d'experts.

Apprentissage par renforcement hiérarchique (Hierarchical Reinforcement Learning)
L'apprentissage par renforcement hiérarchique implique l'apprentissage de politiques à plusieurs niveaux d'abstraction. Il simplifie les tâches complexes en les décomposant en sous-tâches.

Apprentissage par transfert (Transfer Learning)
L'apprentissage par transfert permet d'affiner les réseaux neuronaux préformés pour des tâches spécifiques. Il exploite les connaissances acquises dans un domaine pour améliorer les performances dans un autre.

Apprentissage semi-supervisé
Méthode d'apprentissage utilisant à la fois des données étiquetées et non étiquetées pour l'entraînement.

Apprentissage supervisé (Supervised Learning)
L'apprentissage supervisé est un type d'apprentissage automatique dans lequel le modèle apprend à partir de données d'apprentissage étiquetées. Il prédit la sortie en fonction des caractéristiques d'entrée et des valeurs cibles connues.

Art génératif
La création d'œuvres artistiques à l'aide de modèles génératifs, souvent en collaboration avec des artistes humains.

Assistants
Systèmes intelligents capables de comprendre le langage naturel et d'effectuer des tâches pour le compte d'un utilisateur. Les assistants virtuels tels que Siri et Alexa sont des exemples d'assistants dotés d'IA.

Attaque par porte dérobée générative (Generative Adversarial Backdoor Attack)
L'utilisation de réseaux adversaires génératifs pour créer des attaques par porte dérobée sur des modèles d'apprentissage automatique, en injectant des déclencheurs ou des modèles cachés dans les données d'apprentissage.

Attribut
Une caractéristique ou un élément des données utilisé dans l'apprentissage automatique et l'intelligence artificielle. Les attributs, également appelés caractéristiques ou variables, sont les propriétés ou caractéristiques individuelles mesurables des phénomènes observés.

Augmentation de données (Data Augmentation)
Techniques pour augmenter la quantité de données d'entraînement en ajoutant des versions modifiées des données existantes.

Auto-Attention
Mécanisme dans les transformateurs qui permet à chaque position dans la séquence de se concentrer sur toutes les autres positions.

Autoencodeur
Un autoencodeur est une architecture de réseau neuronal utilisée pour l'apprentissage non supervisé. Il apprend à coder les données d'entrée dans une représentation de dimension inférieure (codage), puis à les décoder pour revenir aux données d'origine.

Autoencodeur de débruitage (Denoising Autoencoder)
Un type de modèle d'autoencodeur qui apprend à reconstruire des données propres à partir d'entrées corrompues, souvent utilisé pour des tâches d'apprentissage de représentation ou de débruitage de données.

Autoencodeur variationnel (Variational Autoencoder (VAE))
Un type de modèle génératif qui apprend une représentation latente probabiliste des données, utilisé pour des tâches telles que la génération d'images ou la compression de données.

AutoML
Processus automatisés d'apprentissage automatique qui simplifient la création de modèles.
Les outils les plus populaires
Retour en haut
Aller au contenu principal