Concept

Latence (informatique)

Résumé
En informatique, la latence (ou délai de transit, ou retard) est le délai de transmission dans les communications informatiques (on trouve souvent l’anglicisme lag). Il désigne le temps nécessaire à un paquet de données pour passer de la source à la destination à travers un réseau. À n'importe quel paquet transmis par réseau correspond donc une valeur de latence. Le terme est néanmoins utilisé pour désigner les délais plus longs, perceptibles par les utilisateurs. On parle aussi de latence pour le temps d'accès à une information sur une mémoire ou un système de stockage (disque ou bande magnétique). Latence réseau Aucun signal ne peut être plus rapide que la vitesse de la lumière. Dans un réseau local les distances sont petites et cela n'a quasiment aucun impact, mais sur des réseaux longue distance cela devient significatif ; dans des conditions parfaites la lumière met environ 5 ms pour parcourir , et dans une fibre optique compte tenu de la réfraction le signal m
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Publications associées

Chargement

Personnes associées

Chargement

Unités associées

Chargement

Concepts associés

Chargement

Cours associés

Chargement

Séances de cours associées

Chargement