BitLe bit est l'unité la plus simple dans un système de numération, ne pouvant prendre que deux valeurs, désignées le plus souvent par les chiffres 0 et 1. Un bit peut représenter aussi bien une alternative logique, exprimée par faux et vrai, qu'un « chiffre binaire », binary digit en anglais, dont le mot bit, qui signifie « morceau », est aussi l'abréviation. Dans la théorie de l'information, un bit est la quantité minimale d'information transmise par un message, et constitue à ce titre l'unité de mesure de base de l'information en informatique.
Préfixe binaireLes préfixes binaires sont souvent utilisés lorsqu’on a affaire à de grandes quantités d’octets. Ils sont dérivés, tout en étant différents, des préfixes du Système international d'unités (kilo-, méga-, giga- et ainsi de suite). La raison d’être de ces préfixes binaires est d’éviter la confusion de valeur avec les préfixes SI. Du fait que les capacités de mémoires d’ordinateurs sont des puissances de deux ou des multiples de telles puissances, l’utilisation de puissances de = 210 comme préfixes pour de telles capacités et, de façon dérivée, pour toutes les tailles de programmes et de supports informatiques, est venue naturellement aux informaticiens.
Boutismethumb|Schéma récapitulatif des modes de représentation. En informatique, le nombre entier est un type de données qui est généralement représenté sur plusieurs octets. Le boutisme (endianness en anglais) ou plus rarement endianisme désigne l'ordre dans lequel ces octets sont placés. Il existe deux conventions opposées : l'orientation gros-boutiste (ou gros-boutienne) qui démarre avec les octets de poids forts, et l'orientation inverse petit-boutiste (ou petit-boutienne).
NibbleUn nibble (signifiant grignoter en anglais) ou plus rarement nybble est, en informatique, un agrégat de , soit un demi octet. On trouve aussi les termes francisés semioctet ou quartet. Un quartet contenant , il peut prendre seize (24) valeurs différentes et correspond donc à un seul chiffre hexadécimal, d'où son autre appellation de hex digit (ou hexit). Deux chiffres hexadécimaux formant un octet, ce dernier est souvent représenté par deux nibbles. Dans certaines langues, on peut également rencontrer tetrade, du grec tetra (« quatre »).
Logarithmevignette|Tracés des fonctions logarithmes en base 2, e et 10. En mathématiques, le logarithme (de logos : rapport et arithmos : nombre) de base d'un nombre réel strictement positif est la puissance à laquelle il faut élever la base pour obtenir ce nombre. Dans le cas le plus simple, le logarithme compte le nombre d'occurrences du même facteur dans une multiplication répétée : comme 1000 = 10×10×10 = 10, le logarithme en base 10 de 1000 est 3. Le logarithme de en base est noté : . John Napier a développé les logarithmes au début du .
ByteLe byte (prononcé ), ou multiplet en français, est la plus petite unité « logiquement » adressable par un programme sur un ordinateur. Aujourd’hui, le besoin d'une structure commune pour le partage des données a fait que le byte de , appelé octet, s'est généralisé en informatique. Cependant, jusque dans les années 1970, il existait des processeurs avec des bytes de tailles très variables ; il existe, pour la programmation des automates et autres équipements industriels simples, des processeurs utilisant des mémoires adressables par quantité de , voire moins ; beaucoup de microprocesseurs adressent physiquement la mémoire par mot de plusieurs bytes afin d'augmenter les performances.