Error correction codeIn computing, telecommunication, information theory, and coding theory, forward error correction (FEC) or channel coding is a technique used for controlling errors in data transmission over unreliable or noisy communication channels. The central idea is that the sender encodes the message in a redundant way, most often by using an error correction code or error correcting code (ECC). The redundancy allows the receiver not only to detect errors that may occur anywhere in the message, but often to correct a limited number of errors.
Consideration in English lawConsideration is an English common law concept within the law of contract, and is a necessity for simple contracts (but not for special contracts by deed). The concept of consideration has been adopted by other common law jurisdictions, including the US. Consideration can be anything of value (such as any goods, money, services, or promises of any of these), which each party gives as a quid pro quo to support their side of the bargain. Mutual promises constitute consideration for each other.
Soft errorIn electronics and computing, a soft error is a type of error where a signal or datum is wrong. Errors may be caused by a defect, usually understood either to be a mistake in design or construction, or a broken component. A soft error is also a signal or datum which is wrong, but is not assumed to imply such a mistake or breakage. After observing a soft error, there is no implication that the system is any less reliable than before. One cause of soft errors is single event upsets from cosmic rays.
Modèle standard de la physique des particulesvignette|upright=2.0|Modèle standard des particules élémentaires avec les trois générations de fermions (trois premières colonnes), les bosons de jauge (quatrième colonne) et le boson de Higgs (cinquième colonne). Le modèle standard de la physique des particules est une théorie qui concerne l'électromagnétisme, les interactions nucléaires faible et forte, et la classification de toutes les particules subatomiques connues. Elle a été développée pendant la deuxième moitié du , dans une initiative collaborative mondiale, sur les bases de la mécanique quantique.
Information quantiqueLa théorie de l'information quantique, parfois abrégée simplement en information quantique, est un développement de la théorie de l'information de Claude Shannon exploitant les propriétés de la mécanique quantique, notamment le principe de superposition ou encore l'intrication. L'unité qui est utilisée pour quantifier l'information quantique est le qubit, par analogie avec le bit d'information classique.
Problème du sac à dosEn algorithmique, le problème du sac à dos, parfois noté (KP) (de l'anglais Knapsack Problem) est un problème d'optimisation combinatoire. Ce problème classique en informatique et en mathématiques modélise une situation analogue au remplissage d'un sac à dos. Il consiste à trouver la combinaison d'éléments la plus précieuse à inclure dans un sac à dos, étant donné un ensemble d'éléments décrits par leurs poids et valeurs.
Paradoxe de l'informationEn astrophysique, le paradoxe de l'information est un paradoxe mis en évidence par Stephen Hawking en 1976 opposant les lois de la mécanique quantique à celles de la relativité générale. En effet, la relativité générale implique qu'une information pourrait fondamentalement disparaître dans un trou noir, à la suite de l'évaporation de celui-ci. Cette perte d'information implique une non-réversibilité (un même état peut être issu de plusieurs états différents), et une évolution non unitaire des états quantiques, en contradiction fondamentale avec les postulats de la mécanique quantique.
Algorithmic efficiencyIn computer science, algorithmic efficiency is a property of an algorithm which relates to the amount of computational resources used by the algorithm. An algorithm must be analyzed to determine its resource usage, and the efficiency of an algorithm can be measured based on the usage of different resources. Algorithmic efficiency can be thought of as analogous to engineering productivity for a repeating or continuous process. For maximum efficiency it is desirable to minimize resource usage.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Particule matérielleLe terme « particule matérielle » (material particle en anglais) désigne une petite portion d'un corps, de matière solide ou fluide, constituée d'un nombre suffisamment grand de particules élémentaires. La matière est pleine de vide. Un corps de matière solide ou fluide est un domaine discontinu de particules composites (protons, neutrons), elles-mêmes composées de particules élémentaires. Les dimensions des particules élémentaires sont très petites devant les distances qui les séparent.