Glossaire des termes liés à l’intelligence artificielle
- Sophia
- Modifié le
Partager la publication
R
Raisonnement analogique
La capacité à reconnaître les similitudes entre différentes situations ou concepts et à appliquer les connaissances d'un domaine à un autre.
Raisonnement automatisé
L'étude du raisonnement effectué par des programmes informatiques, y compris le raisonnement logique, la résolution de problèmes et la prise de décision.
Recherche d'architecture neuronale (Neural Architecture Search (NAS))
Les NAS automatisent la conception d'architectures de réseaux neuronaux en recherchant les structures optimales à l'aide de techniques telles que les algorithmes génétiques ou l'apprentissage par renforcement.
Recherche de faisceau (Beam Search)
Algorithme de décodage des séquences qui garde trace des meilleures séquences à chaque étape.
Recherche de faisceau diversifié (Diverse Beam Search)
Une variante de la recherche par faisceau qui favorise la diversité des résultats générés.
Réduction de Dimensionnalité (Dimensionality Reduction)
Processus de réduction du nombre de variables prises en compte.
Réglage des hyperparamètres (Hyperparameter Tuning)
L'ajustement des hyperparamètres consiste à optimiser les hyperparamètres du modèle (par exemple, le taux d'apprentissage, la taille du lot) afin d'améliorer les performances du modèle. Les techniques comprennent la recherche en grille et la recherche aléatoire.
Régression Ridge (Ridge Regression)
Méthode d'estimation qui contraint ses coefficients à ne pas exploser, contrairement à la régression linéaire standard en grande dimension. Le contexte de grande dimension recoupe toutes les situations où l'on dispose d'un très grand nombre de variables par rapport au nombre d'individus.
Regroupement (Clustering)
Les algorithmes de regroupement regroupent des points de données similaires en fonction de leurs caractéristiques.
Rendu neuronal (Neural Rendering)
Processus consistant à utiliser des modèles génératifs pour générer ou manipuler des scènes 3D et les restituer en images 2D.
Représentation des connaissances (Knowledge Representation)
La représentation des connaissances consiste à structurer les informations de manière à ce que les systèmes d'intelligence artificielle puissent raisonner à leur sujet. Les techniques comprennent les réseaux sémantiques, les cadres et les ontologies.
Représentations de codeurs bidirectionnels à partir de transformateurs (Bidirectional Encoder Representations from Transformers (BERT))
Modèle linguistique conçu pour pré-entraîner des représentations bidirectionnelles profondes en conditionnant conjointement le contexte gauche et le contexte droit.
Réseau adversairiel génératif (Generative Adversarial Network (GAN))
Un type de modèle génératif qui oppose deux réseaux neuronaux, l'un générant des données et l'autre faisant la distinction entre les données réelles et les données générées.
Réseau de neurones artificiels (RNA)
Modèle informatique inspiré de la structure et de la fonction des réseaux neuronaux biologiques, utilisé pour des tâches d'apprentissage automatique telles que la reconnaissance des formes et la classification des données.
Réseau de requête génératif (Generative Query Network)
Un type de modèle génératif qui peut générer des séquences conditionnées par des entrées d'interrogation structurées, souvent utilisé dans des tâches telles que la génération de codes ou la réponse à des questions.
Réseau neuronal convolutif (Convolutional Neural Network (CNN))
Un CNN est une architecture d'apprentissage profond conçue pour la reconnaissance et le traitement d'images. Il utilise des couches convolutives pour apprendre automatiquement les caractéristiques des images.
Réseau résiduel (Residual Network (ResNet))
Type de réseau neuronal utilisant des blocs résiduels pour faciliter l'entraînement de réseaux profonds.
Réseaux bayésiens (Bayesian Networks)
Les réseaux bayésiens modélisent les relations probabilistes entre les variables à l'aide de graphes acycliques dirigés. Ils sont utiles pour représenter l'incertitude et les dépendances causales.
Réseaux de capsules (Capsule Networks)
Architecture de réseau neuronal avancée conçue pour reconnaître les hiérarchies spatiales.
Réseaux équivariants génératifs (Generative Equivariant Networks)
Modèles génératifs conçus pour être équivariants par rapport à certaines transformations ou symétries dans les données, souvent utilisés dans les tâches de vision par ordinateur ou de simulation physique.
Réseaux neuronaux graphiques (Graph Neural Networks (GNNs))
Les réseaux neuronaux graphiques fonctionnent sur des données structurées en graphe (par exemple, les réseaux sociaux, les structures moléculaires). Ils apprennent les représentations des nœuds en tenant compte des informations de voisinage.
Réseaux neuronaux récurrents (Recurrent Neural Networks (RNNs))
Les RNNs traitent des séquences de données (par exemple, séries temporelles, langage naturel) en conservant des états cachés. Ils sont utilisés pour des tâches telles que la modélisation du langage et la reconnaissance vocale.
Rétropropagation (Backpropagation)
Algorithme utilisé pour entraîner des réseaux de neurones artificiels. Il ajuste les poids des connexions neuronales en fonction de l'erreur de prédiction, permettant ainsi au réseau d'apprendre et de s'améliorer.
Les outils les plus populaires
Mistral AI incarne une nouvelle génération d’intelligence artificielle en Europe. Fondée par une équipe de...
DeepL est un outil de traduction en ligne basé sur l'intelligence artificielle. Il permet de...
Facebook lance une nouvelle version de son modèle linguistique Llama. L'IA surpasse même GPT dans...