Méthode de SchulzeLa méthode de Schulze est un système de vote développé en 1997 par Markus Schulze qui choisit un gagnant simple dans un vote avec classement des candidats. La méthode peut également être employée pour créer une liste ordonnée de gagnants. Si un candidat gagne tous ses duels lors des confrontations par paires avec les autres candidats (gagnant de Condorcet), la méthode de Schulze garantit que ce candidat gagnera. En raison de cette propriété, la méthode de Schulze est (par définition) une méthode de Condorcet.
Modèle de donnéesEn informatique, un modèle de données est un modèle qui décrit la manière dont sont représentées les données dans une organisation métier, un système d'information ou une base de données. Le terme modèle de données peut avoir deux significations : Un modèle de données théorique, c'est-à-dire une description formelle ou un modèle mathématique. Voir aussi modèle de base de données Un modèle de données instance, c'est-à-dire qui applique un modèle de données théorique (modélisation des données) pour créer un modèle de données instance.
Majority criterionThe majority criterion is a single-winner voting system criterion, used to compare such systems. The criterion states that "if one candidate is ranked first by a majority (more than 50%) of voters, then that candidate must win". Some methods that comply with this criterion include any Condorcet method, instant-runoff voting, Bucklin voting, and plurality voting.
Méthode de CondorcetLa méthode Condorcet (aussi appelée scrutin de Condorcet ou vote Condorcet) est un système de vote obéissant au principe de Condorcet qui s'énonce ainsi : Le vainqueur, s'il existe, est donc le candidat qui, comparé tour à tour à chacun des autres candidats, s’avère à chaque fois être le candidat préféré. Autrement dit, il bat tous les autres en duel. Un tel candidat est appelé vainqueur de Condorcet. Rien ne garantit la présence d'un candidat satisfaisant à ce critère de victoire : c'est le paradoxe de Condorcet.
Clustered file systemA clustered file system is a which is shared by being simultaneously mounted on multiple servers. There are several approaches to clustering, most of which do not employ a clustered file system (only direct attached storage for each node). Clustered file systems can provide features like location-independent addressing and redundancy which improve reliability or reduce the complexity of the other parts of the cluster. Parallel file systems are a type of clustered file system that spread data across multiple storage nodes, usually for redundancy or performance.
Consistency criterionA voting system is consistent if, whenever the electorate is divided (arbitrarily) into several parts and elections in those parts garner the same result, then an election of the entire electorate also garners that result. Smith calls this property separability and Woodall calls it convexity. It has been proven a ranked voting system is "consistent if and only if it is a scoring function", i.e. a positional voting system. Borda count is an example of this. The failure of the consistency criterion can be seen as an example of Simpson's paradox.
Théorème CAPthumb|Représentation des contraintes du théorème CAP. Le théorème CAP ou CDP, aussi connu sous le nom de théorème de Brewer, dit qu'il est impossible sur un système informatique de calcul distribué de garantir en même temps (c'est-à-dire de manière synchrone) les trois contraintes suivantes : Cohérence (Consistency en anglais) : tous les nœuds du système voient exactement les mêmes données au même moment ; Disponibilité (Availability en anglais) : garantie que toutes les requêtes reçoivent une réponse ; Tolérance au partitionnement (Partition Tolerance en anglais) : aucune panne moins importante qu'une coupure totale du réseau ne doit empêcher le système de répondre correctement (ou encore : en cas de morcellement en sous-réseaux, chacun doit pouvoir fonctionner de manière autonome).
Cohérence (logique)En logique mathématique, la cohérence, ou consistance, d'une théorie axiomatique peut se définir de deux façons, soit par référence à la déduction : il n'est pas possible de tout démontrer à partir des axiomes de la théorie, soit par référence à la sémantique de la théorie : celle-ci possède des réalisations qui lui donnent un sens. La première définition est syntaxique au sens où elle utilise des déductions ou démonstrations, qui sont des objets finis.
Critère d'information bayésienLe critère d'information bayésien (en anglais bayesian information criterion, en abrégé BIC), aussi appelé critère d'information de Schwarz, est un critère d'information dérivé du critère d'information d'Akaike proposé par en 1978. À la différence du critère d'information d'Akaike, la pénalité dépend de la taille de l'échantillon et pas seulement du nombre de paramètres. Il s'écrit : avec la vraisemblance du modèle estimée, le nombre d'observations dans l'échantillon et le nombre de paramètres libres du modèle.
Réplication (informatique)En informatique, la réplication est un processus de partage d'informations pour assurer la cohérence de données entre plusieurs sources de données redondantes, pour améliorer la fiabilité, la tolérance aux pannes, ou la disponibilité. On parle de réplication de données si les mêmes données sont dupliquées sur plusieurs périphériques. La réplication n'est pas à confondre avec une sauvegarde : les données sauvegardées ne changent pas dans le temps, reflétant un état fixe des données, tandis que les données répliquées évoluent sans cesse à mesure que les données sources changent.