Mesure de BorelIn mathematics, specifically in measure theory, a Borel measure on a topological space is a measure that is defined on all open sets (and thus on all Borel sets). Some authors require additional restrictions on the measure, as described below. Let be a locally compact Hausdorff space, and let be the smallest σ-algebra that contains the open sets of ; this is known as the σ-algebra of Borel sets. A Borel measure is any measure defined on the σ-algebra of Borel sets.
Circuit complexityIn theoretical computer science, circuit complexity is a branch of computational complexity theory in which Boolean functions are classified according to the size or depth of the Boolean circuits that compute them. A related notion is the circuit complexity of a recursive language that is decided by a uniform family of circuits (see below). Proving lower bounds on size of Boolean circuits computing explicit Boolean functions is a popular approach to separating complexity classes.
Vector measureIn mathematics, a vector measure is a function defined on a family of sets and taking vector values satisfying certain properties. It is a generalization of the concept of finite measure, which takes nonnegative real values only.
Mesure de DiracIn mathematics, a Dirac measure assigns a size to a set based solely on whether it contains a fixed element x or not. It is one way of formalizing the idea of the Dirac delta function, an important tool in physics and other technical fields. A Dirac measure is a measure δx on a set X (with any σ-algebra of subsets of X) defined for a given x ∈ X and any (measurable) set A ⊆ X by where 1A is the indicator function of A. The Dirac measure is a probability measure, and in terms of probability it represents the almost sure outcome x in the sample space X.
Mesure de LebesgueLa mesure de Lebesgue est une mesure qui étend le concept intuitif de volume à une très large classe de parties de l'espace. Comme l'a immédiatement perçu son inventeur, Henri Lebesgue, elle permet de bâtir une théorie de l'intégration très performante et fondamentale en analyse moderne : la théorie de l'intégrale de Lebesgue. Plusieurs constructions bien différentes de la mesure de Lebesgue sont connues. Chacune d'entre elles peut naturellement être prise pour définition ; dans le cadre d'un article où il faut toutes les évoquer, il est prudent de fournir en ouverture une définition plus unificatrice.
Complexité paramétréeEn algorithmique, la complexité paramétrée (ou complexité paramétrique) est une branche de la théorie de la complexité qui classifie les problèmes algorithmiques selon leur difficulté intrinsèque en fonction de plusieurs paramètres sur les données en entrée ou sur la sortie. Ce domaine est étudié depuis les années 90 comme approche pour la résolution exacte de problèmes NP-complets. Cette approche est utilisée en optimisation combinatoire, notamment en algorithmique des graphes, en intelligence artificielle, en théorie des bases de données et en bio-informatique.
Complexité de la communicationLa complexité de la communication ou complexité de communication est une notion étudiée en informatique théorique. Le dispositif abstrait classique est le suivant : Alice et Bob ont chacun un message, et ils veulent calculer un nouveau message à partir de leurs messages, en se transmettant un minimum d'information. Par exemple, Alice et Bob reçoivent un mot chacun, et ils doivent décider s'ils ont reçu le même mot ; ils peuvent bien sûr s'envoyer leur mot l'un à l'autre et comparer, mais la question est de minimiser le nombre de messages.
Algorithme probabilisteEn algorithmique, un algorithme probabiliste, ou algorithme randomisé, est un algorithme qui utilise une source de hasard. Plus précisément le déroulement de l’algorithme fait appel à des données tirées au hasard. Par exemple à un certain point de l’exécution, on tire un bit 0 ou 1, selon la loi uniforme et si le résultat est 0, on fait une certaine action A et si c'est 1, on fait une autre action. On peut aussi tirer un nombre réel dans l'intervalle [0,1] ou un entier dans un intervalle [i..j].
Empire byzantinL’'Empire byzantin' ou Empire romain d'Orient désigne l'État apparu vers le dans la partie orientale de l'Empire romain, au moment où celui-ci se divise progressivement en deux. Il se caractérise par sa longévité : il puise ses origines dans la fondation même de Rome, et la datation de ses débuts change selon les critères choisis par chaque historien. La fondation de Constantinople, sa capitale, par en 330, autant que la division d’un Empire romain de plus en plus difficile à gouverner et qui devient définitive en 395, sont parfois citées.
Mesure de JordanEn mathématiques, la mesure de Peano-Jordan est une extension de la notion de taille (longueur, aire, volume), aisément définie pour des domaines simples tels que le rectangle ou le parallélépipède, à des formes plus compliquées. La mesure de Jordan s'avère trop restrictive pour certains ensembles qu'on pourrait souhaiter être mesurables. Pour cette raison, il est maintenant plus fréquent de travailler avec la mesure de Lebesgue, qui est une extension de la mesure de Jordan à une plus grande classe d'ensembles.