Transformeurvignette|Schéma représentant l'architecture générale d'un transformeur. Un transformeur (ou modèle auto-attentif) est un modèle d'apprentissage profond introduit en 2017, utilisé principalement dans le domaine du traitement automatique des langues (TAL). Dès 2020, les transformeurs commencent aussi à trouver une application en matière de vision par ordinateur par la création des vision transformers (ViT).
Fonction mesurableSoient E et F des espaces mesurables munis de leurs tribus respectives E et F. Une fonction f : E → F est dite (E, F)-mesurable si la par f de la tribu F est incluse dans E, c'est-à-dire si : L'identité, la composée de deux fonctions mesurables, sont mesurables. Les fonctions mesurables fournissent donc à la classe des espaces mesurables une structure de catégorie. Si F est l'ensemble des réels et si F est sa tribu borélienne, on dira simplement que f est une fonction mesurable sur (E, E).
Infrastructure à clés publiquesthumb|Diagramme de principe d'une autorité de certification, exemple d'infrastructure à clés publiquesCA : autorité de certification ;VA : autorité de validation ;RA : autorité d'enregistrement. Une infrastructure à clés publiques (ICP) ou infrastructure de gestion de clés (IGC) ou encore Public Key Infrastructure (PKI), est un ensemble de composants physiques (des ordinateurs, des équipements cryptographiques logiciels ou matériel type Hardware Security Module (HSM ou boîte noire transactionnelle) ou encore des cartes à puces), de procédures humaines (vérifications, validation) et de logiciels (système et application) destiné à gérer les clés publiques des utilisateurs d'un système.
Fonction de BesselEn mathématiques, et plus précisément en analyse, les fonctions de Bessel, appelées aussi quelquefois fonctions cylindriques, découvertes par le mathématicien suisse Daniel Bernoulli, portent le nom du mathématicien allemand Friedrich Wilhelm Bessel. Bessel développa l'analyse de ces fonctions en 1816 dans le cadre de ses études du mouvement des planètes induit par l'interaction gravitationnelle, généralisant les découvertes antérieures de Bernoulli.
Reinforcement learning from human feedbackIn machine learning, reinforcement learning from human feedback (RLHF) or reinforcement learning from human preferences is a technique that trains a "reward model" directly from human feedback and uses the model as a reward function to optimize an agent's policy using reinforcement learning (RL) through an optimization algorithm like Proximal Policy Optimization. The reward model is trained in advance to the policy being optimized to predict if a given output is good (high reward) or bad (low reward).
Réseaux antagonistes génératifsEn intelligence artificielle, les réseaux antagonistes génératifs (RAG) parfois aussi appelés réseaux adverses génératifs (en anglais generative adversarial networks ou GANs) sont une classe d'algorithmes d'apprentissage non supervisé. Ces algorithmes ont été introduits par . Ils permettent de générer des images avec un fort degré de réalisme. Un GAN est un modèle génératif où deux réseaux sont placés en compétition dans un scénario de théorie des jeux. Le premier réseau est le générateur, il génère un échantillon (ex.
Longueur de cléEn cryptologie, la longueur de clé ( ou key length) est la taille mesurée en bits de la clé de chiffrement (ou de signature) utilisée par un algorithme de chiffrement. La longueur de la clé est différente de la sécurité cryptographique, qui est la mesure de l'attaque la plus rapide contre un algorithme, aussi mesurée en bits. La sécurité évaluée d'un cryptosystème ne peut pas dépasser sa longueur de clé (étant donné que tout algorithme peut être cassé par force brute), mais elle peut être plus petite.
Multi-agent reinforcement learningMulti-agent reinforcement learning (MARL) is a sub-field of reinforcement learning. It focuses on studying the behavior of multiple learning agents that coexist in a shared environment. Each agent is motivated by its own rewards, and does actions to advance its own interests; in some environments these interests are opposed to the interests of other agents, resulting in complex group dynamics. Multi-agent reinforcement learning is closely related to game theory and especially repeated games, as well as multi-agent systems.
Condition de HölderEn analyse, la continuité höldérienne ou condition de Hölder — nommée d'après le mathématicien allemand Otto Hölder — est une condition suffisante, généralisant celle de Lipschitz, pour qu’une application définie entre deux espaces métriques soit uniformément continue. La définition s’applique donc en particulier pour les fonctions d’une variable réelle. Si (X, d) et (Y, d) sont deux espaces métriques, une fonction f : X → Y est dite a-höldérienne s’il existe une constante C telle que pour tous x, y ∈ X : La continuité höldérienne d’une fonction dépend donc d’un paramètre a ∈ ]0, 1].
Intégrale de LebesgueEn mathématiques, l’intégrale de Lebesgue désigne à la fois une théorie relative à l'intégration et à la mesure, et le résultat de l'intégration d'une fonction à valeurs réelles définie sur (ou sur ) muni de la mesure de Lebesgue. Généralisant l'intégrale de Riemann, l'intégrale de Lebesgue joue un rôle important en analyse, en théorie des probabilités et dans beaucoup d'autres domaines des mathématiques. Dans les cas simples, l'intégrale d'une fonction positive f peut être vue comme l'aire comprise entre l'axe des x (l'axe horizontal) et la courbe de la fonction f.