Glossaire des termes liés à l’intelligence artificielle

Partager la publication

# A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
D

DALL-E
Modèle de diffusion texte-image développé par OpenAI, capable de générer des images à partir de descriptions textuelles.

Décodage gourmand (Greedy Decoding)
Une stratégie de décodage simple pour les modèles génératifs qui sélectionne la sortie la plus probable à chaque étape.

Deep learning (Apprentissage en profondeur)
Les modèles d'apprentissage profond sont un sous-ensemble des réseaux neuronaux. Ils comportent plusieurs couches (réseaux neuronaux profonds) et sont utilisés pour des tâches telles que la reconnaissance d'images, le traitement du langage naturel et les systèmes de recommandation.

Deepfake
Utilisation de modèles génératifs pour créer des sons, des vidéos ou des images synthétiques qui semblent réels.

Démêlage (Disentanglement)
La capacité d'un modèle génératif à apprendre des représentations démêlées, où différentes variables latentes correspondent à des facteurs ou attributs distincts des données.

Descente de gradient (Gradient Descent)
La descente de gradient est un algorithme d'optimisation utilisé pour minimiser la fonction de perte pendant la formation du réseau neuronal. Il ajuste les paramètres du modèle en fonction du gradient de la perte par rapport aux poids.

Descente de gradient stochastique (Stochastic Gradient Descent (SGD))
Méthode d'optimisation pour minimiser une fonction objective, typiquement utilisée dans l'entraînement des réseaux neuronaux.

Désintoxication
Le processus de filtrage ou de modification des résultats des modèles de langage afin d'en éliminer le contenu toxique, nuisible ou biaisé.Le processus de filtrage ou de modification des résultats des modèles de langage afin d'en éliminer le contenu toxique, nuisible ou biaisé.

Détection des anomalies
La détection des anomalies permet d'identifier des modèles inhabituels ou inattendus dans les données. Elle est utilisée pour détecter les fraudes, les défauts ou les anomalies dans divers domaines.

Détection générative d'anomalies (Generative Anomaly Detection)
Utilisation de modèles génératifs pour détecter les anomalies ou les valeurs aberrantes dans les données, en modélisant la distribution des données normales et en identifiant les écarts par rapport à celle-ci.

Distillation des connaissances factuelles (Factual Knowledge Distillation)
Le processus de distillation des connaissances factuelles à partir de grands modèles de langage ou d'autres sources de données dans des modèles génératifs.

Distribution de probabilité conjointe (Joint Probability Distribution)
Dans les modèles graphiques probabilistes, la distribution de probabilité conjointe représente la probabilité d'observer plusieurs variables ensemble. Elle est essentielle pour les réseaux bayésiens et les champs aléatoires de Markov.

Données déséquilibrées (Imbalanced Data)
Les données déséquilibrées font référence aux ensembles de données dans lesquels une classe est nettement plus répandue que les autres. Des techniques telles que le suréchantillonnage, le sous-échantillonnage et le SMOTE permettent de résoudre ce problème.
Les outils les plus populaires
Retour en haut
Aller au contenu principal