Algorithme probabilisteEn algorithmique, un algorithme probabiliste, ou algorithme randomisé, est un algorithme qui utilise une source de hasard. Plus précisément le déroulement de l’algorithme fait appel à des données tirées au hasard. Par exemple à un certain point de l’exécution, on tire un bit 0 ou 1, selon la loi uniforme et si le résultat est 0, on fait une certaine action A et si c'est 1, on fait une autre action. On peut aussi tirer un nombre réel dans l'intervalle [0,1] ou un entier dans un intervalle [i..j].
Seconde quantificationLa seconde quantification, aussi appelée quantification canonique, est une méthode de quantification des champs introduite par Dirac en 1927 pour l'électrodynamique quantique. Elle consiste à partir d'un champ classique tel que le champ électromagnétique, à le considérer comme un système physique et à remplacer les grandeurs classiques décrivant l'état du champ par un état quantique et des observables de la physique quantique. On aboutit naturellement à la conclusion que l'énergie du champ est quantifiée, chaque quantum représentant une particule.
Quantifications canoniquesEn physique, la quantification canonique est une procédure pour quantifier une théorie classique, tout en essayant de préserver au maximum la structure formelle, comme les symétries, de la théorie classique. Historiquement, ce n'était pas tout à fait la voie de Werner Heisenberg pour obtenir la mécanique quantique, mais Paul Dirac l'a introduite dans sa thèse de doctorat de 1926, la «méthode de l'analogie classique» pour la quantification, et l'a détaillée dans son texte classique.
Best, worst and average caseIn computer science, best, worst, and average cases of a given algorithm express what the resource usage is at least, at most and on average, respectively. Usually the resource being considered is running time, i.e. time complexity, but could also be memory or some other resource. Best case is the function which performs the minimum number of steps on input data of n elements. Worst case is the function which performs the maximum number of steps on input data of size n.
Nonlinear dimensionality reductionNonlinear dimensionality reduction, also known as manifold learning, refers to various related techniques that aim to project high-dimensional data onto lower-dimensional latent manifolds, with the goal of either visualizing the data in the low-dimensional space, or learning the mapping (either from the high-dimensional space to the low-dimensional embedding or vice versa) itself. The techniques described below can be understood as generalizations of linear decomposition methods used for dimensionality reduction, such as singular value decomposition and principal component analysis.
Algorithme gloutonUn algorithme glouton (greedy algorithm en anglais, parfois appelé aussi algorithme gourmand, ou goulu) est un algorithme qui suit le principe de réaliser, étape par étape, un choix optimum local, afin d'obtenir un résultat optimum global. Par exemple, dans le problème du rendu de monnaie (donner une somme avec le moins possible de pièces), l'algorithme consistant à répéter le choix de la pièce de plus grande valeur qui ne dépasse pas la somme restante est un algorithme glouton.
Algèbre d'ensemblesLe concept intervient dans l'exposition des bases de la théorie de la mesure, sous des noms assez variés dans les sources en français : outre algèbre d'ensembles, et sa variante corps d'ensembles, on trouve aussi algèbre de Boole de parties, ou plus brièvement algèbre de Boole, voire simplement algèbre, et encore anneau booléen unitaire ou clan unitaire. Cette définition évoque celle d'une tribu ; en les rapprochant on constate immédiatement qu'un ensemble de parties d'un ensemble est une tribu si et seulement si c'est une algèbre d'ensembles stable par réunion dénombrable.
Référentiel (physique)En physique, il est impossible de définir une position ou un mouvement par rapport à l'espace « vide ». Un référentiel est un solide (un ensemble de points fixes entre eux) par rapport auquel on repère une position ou un mouvement. Un dispositif servant d'horloge est également nécessaire pour pouvoir qualifier le mouvement et définir la notion de vitesse. Un exemple classique de référentiel est le référentiel terrestre qui est lié à la Terre.
Ethernet frameIn computer networking, an Ethernet frame is a data link layer protocol data unit and uses the underlying Ethernet physical layer transport mechanisms. In other words, a data unit on an Ethernet link transports an Ethernet frame as its payload. An Ethernet frame is preceded by a preamble and start frame delimiter (SFD), which are both part of the Ethernet packet at the physical layer. Each Ethernet frame starts with an Ethernet header, which contains destination and source MAC addresses as its first two fields.
Frame check sequenceLe frame check sequence (FCS, Séquence de vérification de trame) est un code de détection d'erreurs ajouté à la fin des trames d'un protocole de communication à commutation de paquets, par exemple une trame Ethernet. Le FCS détecte de possible erreurs lors de la transmission de trames, cependant ce n'est pas un code correcteur. Dans le cas d'Ethernet (norme IEEE 802.3), si des erreurs sont détectées, elles ne sont pas corrigées, la trame entière est rejetée et aucun message de demande de retransmission n'est envoyé.