Empire byzantinL’'Empire byzantin' ou Empire romain d'Orient désigne l'État apparu vers le dans la partie orientale de l'Empire romain, au moment où celui-ci se divise progressivement en deux. Il se caractérise par sa longévité : il puise ses origines dans la fondation même de Rome, et la datation de ses débuts change selon les critères choisis par chaque historien. La fondation de Constantinople, sa capitale, par en 330, autant que la division d’un Empire romain de plus en plus difficile à gouverner et qui devient définitive en 395, sont parfois citées.
Calcul distribuéUn calcul distribué, ou réparti ou encore partagé, est un calcul ou un traitement réparti sur plusieurs microprocesseurs et plus généralement sur plusieurs unités centrales informatiques, et on parle alors d'architecture distribuée ou de système distribué. Le calcul distribué est souvent réalisé sur des clusters de calcul spécialisés, mais peut aussi être réalisé sur des stations informatiques individuelles à plusieurs cœurs. La distribution d'un calcul est un domaine de recherche des sciences mathématiques et informatiques.
Table de hachageUne table de hachage est, en informatique, une structure de données qui permet une association clé–valeur, c'est-à-dire une implémentation du type abstrait tableau associatif. Son but principal est de permettre de retrouver une clé donnée très rapidement, en la cherchant à un emplacement de la table correspondant au résultat d'une fonction de hachage calculée en O(1). Cela constitue un gain de temps très important pour les grosses tables, lors d'une recherche ou d'un besoin d'accès aux données en utilisant la clé définie.
Dynastie des ComnènesAprès un net recul de ses frontières en Asie Mineure et la perte de ses possessions en Italie dans la deuxième moitié du , l’Empire byzantin entreprit sous les Comnènes une période de redressement continu bien qu’incomplet. Cinq empereurs (Alexis , Jean II, Manuel , Alexis II et Andronic ) tentèrent pendant 104 ans et par divers moyens de tenir tête aux noblesses terrienne et militaire, soit en favorisant des membres de leur propre famille (Alexis ), soit en faisant appel à des conseillers de l’extérieur (Jean II), soit en privilégiant l’une d’elles (Manuel ), soit en persécutant l’une et l’autre (Andronic ).
Fonction de hachageQuand il s'agit de mettre dans un tableau de taille raisonnable (typiquement résidant dans la mémoire principale de l'ordinateur) un ensemble de données de taille variable et arbitraire, on utilise une fonction de hachage pour attribuer à ces données des indices de ce tableau. Par conséquent, une fonction de hachage est une fonction qui associe des valeurs de taille fixe à des données de taille quelconque. Les valeurs renvoyées par une fonction de hachage sont appelées valeurs de hachage, codes de hachage, résumés, signatures ou simplement hachages.
Synchronisation d'horlogesLa synchronisation d'horloges est un mécanisme permettant à deux systèmes distincts d'être synchronisés, c'est-à-dire d'avoir une différence entre leurs temps subjectifs la plus faible possible. En sciences de l'information (Informatique, télécommunications et traitement du signal), le temps est une notion omniprésente.
Code d'effacementEn théorie de l'information, un code d'effacement est un code de correction d'erreur directe pour le canal binaire d'effacement qui transforme un message composé de symboles en un message plus long composé de symboles tel que le message original peut être retrouvé à partir d'un sous-ensemble de ces symboles. La fraction est appelé « débit du code ». La fraction , où représente le nombre de symboles requis pour restaurer le message est appelée efficacité de la réception.
Hamiltonian path problemIn the mathematical field of graph theory the Hamiltonian path problem and the Hamiltonian cycle problem are problems of determining whether a Hamiltonian path (a path in an undirected or directed graph that visits each vertex exactly once) or a Hamiltonian cycle exists in a given graph (whether directed or undirected). Both problems are NP-complete.
Complexité dans le pire des casEn informatique, la complexité dans le pire des cas, ou complexité dans le cas le plus défavorable, mesure la complexité (par exemple en temps ou en espace) d'un algorithme dans le pire des cas d'exécution possibles. Elle est exprimée comme une fonction de la taille de l'entrée de l'algorithme. Implicitement, on cherche à construire des algorithmes s'exécutant en utilisant le moins de ressources possible (e.g. le plus vite possible), et il s'agit par conséquent d'une borne supérieure des ressources requises par l'algorithme.
PapierLe papier est un matériau en feuilles minces fabriqué à partir de fibres végétales. C'est un support d'écriture et de dessin avec de nombreuses autres applications. On appelle carton un papier épais et rigide. L'usage du papier est attesté il y a en Chine. Il s'y fabrique à partir de plantes riches en cellulose. L'invention de la xylographie au en augmente l'usage et la fabrication. À la même époque, il se diffuse dans le monde musulman, où les fabricants utilisent le chiffon, puis en Occident où on lui ajoute de la colle pour l'adapter à l'écriture à la plume.