Suite des protocoles InternetLa suite des protocoles Internet est l'ensemble des protocoles utilisés pour le transfert des données sur Internet. Elle est aussi appelée suite TCP/IP, DoD Standard (DoD pour Department of Defense) ou bien DoD Model ou encore DoD TCP/IP ou US DoD Model. Elle est souvent appelée TCP/IP, d'après le nom de ses deux premiers protocoles : TCP (de l'anglais Transmission Control Protocol) et IP (de l'anglais Internet Protocol). Ils ont été inventés par Vinton G. Cerf et Bob Kahn, travaillant alors pour la DARPA, avec des influences des travaux de Louis Pouzin.
Sélection de groupevignette|En 1994, et , propose la théorie de la sélection multi-niveaux, illustrée par l'emboîtement de poupées russes. La sélection naturelle pourrait s'exercer au niveau du gène, de la cellule, de l'organisme ou du groupe La sélection de groupe est une généralisation de la théorie de l'évolution par voie de sélection naturelle de Darwin, selon laquelle un groupe d'organismes qui coopèrent fonctionne mieux, à terme, qu'un groupe dont les membres sont en compétition.
Traffic shapingLe traffic shaping ou régulation de flux est le contrôle du volume des échanges dans un réseau informatique dans le but d’optimiser ou de garantir les performances, une latence plus faible ou d’augmenter la bande passante utilisable en retardant les paquets qui correspondent à certains critères. Plus particulièrement, le traffic shaping désigne toute action sur un groupe de paquets (un flux réseau) qui impose un délai supplémentaire à ces paquets pour qu’ils se conforment à une contrainte prédéterminée (contractuelle ou liée à un certain type de trafic).
Sélection de parentèleLa est une théorie permettant d'expliquer l'apparition, au cours de l'évolution, d'un comportement altruiste chez des organismes vis-à-vis d'autres organismes. Elle affirme, en général, que les instincts altruistes augmentent avec l'apparentement sous l'effet de la sélection naturelle. La sélection de parentèle permet d'expliquer l'origine des comportements altruistes au sein des sociétés animales. Cette théorie fut développée en 1964 par le biologiste anglais William Donald Hamilton et le premier résultat théorique d'importance fut produit par le biologiste américain George Price en 1970 et publié dans Nature.
QUICQUIC est un ce protocole via de la couche transport initié par Jim Roskind chez Google. Il est repris par l'IETF en 2015 dans le but de le normaliser par les RFC 8999, 9000, 9001 et 9002 et le rendre ainsi utilisable par n'importe quel protocole de la couche application. Les acteurs impliqués veulent que QUIC soit plus que « HTTP sur UDP », là où Google désire prioriser le web. Initialement QUIC signifie « Quick UDP Internet Connections », mais l'IETF ne le considère pas comme un acronyme et il n'y en a aucune trace dans les RFC.
Background selectionBackground selection describes the loss of genetic diversity at a non-deleterious locus due to negative selection against linked deleterious alleles. It is one form of linked selection, where the maintenance or removal of an allele from a population is dependent upon the alleles in its linkage group. The name emphasizes the fact that the genetic background, or genomic environment, of a neutral mutation has a significant impact on whether it will be preserved (genetic hitchhiking) or purged (background selection) from a population.
Hypothèse de RiemannEn mathématiques, l'hypothèse de Riemann est une conjecture formulée en 1859 par le mathématicien allemand Bernhard Riemann, selon laquelle les zéros non triviaux de la fonction zêta de Riemann ont tous une partie réelle égale à 1/2. Sa démonstration améliorerait la connaissance de la répartition des nombres premiers et ouvrirait des nouveaux domaines aux mathématiques. Cette conjecture constitue l'un des problèmes non résolus les plus importants des mathématiques du début du : elle est l'un des vingt-trois fameux problèmes de Hilbert proposés en 1900, l'un des sept problèmes du prix du millénaire et l'un des dix-huit problèmes de Smale.
Fair queuingFair queuing is a family of scheduling algorithms used in some process and network schedulers. The algorithm is designed to achieve fairness when a limited resource is shared, for example to prevent flows with large packets or processes that generate small jobs from consuming more throughput or CPU time than other flows or processes. Fair queuing is implemented in some advanced network switches and routers.
Latence (informatique)En informatique, la latence (ou délai de transit, ou retard) est le délai de transmission dans les communications informatiques (on trouve souvent l’anglicisme lag). Il désigne le temps nécessaire à un paquet de données pour passer de la source à la destination à travers un réseau. À n'importe quel paquet transmis par réseau correspond donc une valeur de latence. Le terme est néanmoins utilisé pour désigner les délais plus longs, perceptibles par les utilisateurs.
Traffic generation modelA traffic generation model is a stochastic model of the traffic flows or data sources in a communication network, for example a cellular network or a computer network. A packet generation model is a traffic generation model of the packet flows or data sources in a packet-switched network. For example, a web traffic model is a model of the data that is sent or received by a user's web-browser. These models are useful during the development of telecommunication technologies, in view to analyse the performance and capacity of various protocols, algorithms and network topologies .