Gather/scatter (vector addressing)Gather/scatter is a type of memory addressing that at once collects (gathers) from, or stores (scatters) data to, multiple, arbitrary indices. Examples of its use include sparse linear algebra operations, sorting algorithms, fast Fourier transforms, and some computational graph theory problems. It is the vector equivalent of register indirect addressing, with gather involving indexed reads, and scatter, indexed writes. Vector processors (and some SIMD units in CPUs) have hardware support for gather and scatter operations.
Classification (science de l'information)thumb|250px|Le de la Bibliothèque de l'université de Graz (Autriche). Les classifications bibliographiques, telles que celles mises en œuvre dans les bibliothèques, ont été les premiers outils d'organisation thématique des ouvrages. Ces systèmes de classification « permettent de représenter de façon synthétique le sujet d'un document, et de regrouper les ouvrages sur les rayons par affinité de contenu ».
Procédure civileLa procédure civile est l'ensemble des règles relatives à l'organisation d'une action en justice devant une juridiction civile. Elle s'entend aussi de toutes les démarches à entreprendre pour saisir une juridiction civile. La procédure civile est en général régie par un . Il existe différents principes procéduraux s'opposant : Maxime des débats : chaque partie est obligée de prouver les faits qu'elle avance et les parties maîtrisent l'objet du litige ; Maxime inquisitoire : les faits et les preuves sont établis par le juge, qui a ainsi une certaine maîtrise sur la définition du litige.
Code correcteurvignette|Pour nettoyer les erreurs de transmission introduites par l'atmosphère terrestre (à gauche), les scientifiques de Goddard ont appliqué la correction d'erreur Reed-Solomon (à droite), qui est couramment utilisée dans les CD et DVD. Les erreurs typiques incluent les pixels manquants (blanc) et les faux signaux (noir). La bande blanche indique une brève période pendant laquelle la transmission a été interrompue.
Procédure pénaleLa procédure pénale est l'intervention des autorités étatiques depuis le début de la plainte d'une victime, la dénonciation ou la constatation d'une infraction jusqu'à la décision judiciaire définitive. Elle fixe le cadre juridique dans lequel l'enquête, la poursuite et le jugement visant une personne soupçonnée peuvent s'engager. Elle conditionne l'exercice des pouvoirs accordés à la justice répressive. De ce point de vue, c'est une conquête contre l'arbitraire.
Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.
Colon classificationColon classification (CC) is a library catalogue system developed by Shiyali Ramamrita Ranganathan. It was an early faceted (or analytico-synthetic) classification system. The first edition of colon classification was published in 1933, followed by six more editions. It is especially used in libraries in India. Its name originates from its use of colons to separate facets into classes. Many other classification schemes, some of which are unrelated, also use colons and other punctuation to perform various functions.
Code de HammingUn code de Hamming est un code correcteur linéaire. Il permet la détection et la correction automatique d'une erreur si elle ne porte que sur une lettre du message. Un code de Hamming est parfait : pour une longueur de code donnée il n'existe pas d'autre code plus compact ayant la même capacité de correction. En ce sens son rendement est maximal. Il existe une famille de codes de Hamming ; le plus célèbre et le plus simple après le code de répétition binaire de dimension trois et de longueur un est sans doute le code binaire de paramètres [7,4,3].
Théorie de la complexité (informatique théorique)vignette|Quelques classes de complexité étudiées dans le domaine de la théorie de la complexité. Par exemple, P est la classe des problèmes décidés en temps polynomial par une machine de Turing déterministe. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée ...) requis par un algorithme pour résoudre un problème algorithmique.
Maximum de vraisemblanceEn statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.