OrdinateurUn ordinateur est un système de traitement de l'information programmable tel que défini par Alan Turing et qui fonctionne par la lecture séquentielle d'un ensemble d'instructions, organisées en programmes, qui lui font exécuter des opérations logiques et arithmétiques. Sa structure physique actuelle fait que toutes les opérations reposent sur la logique binaire et sur des nombres formés à partir de chiffres binaires.
NibbleUn nibble (signifiant grignoter en anglais) ou plus rarement nybble est, en informatique, un agrégat de , soit un demi octet. On trouve aussi les termes francisés semioctet ou quartet. Un quartet contenant , il peut prendre seize (24) valeurs différentes et correspond donc à un seul chiffre hexadécimal, d'où son autre appellation de hex digit (ou hexit). Deux chiffres hexadécimaux formant un octet, ce dernier est souvent représenté par deux nibbles. Dans certaines langues, on peut également rencontrer tetrade, du grec tetra (« quatre »).
Unité arithmétique et logiqueL'unité arithmétique et logique (UAL, en anglais arithmetic–logic unit, ALU), est l'organe de l'ordinateur chargé d'effectuer les calculs. Le plus souvent, l'UAL est incluse dans l'unité centrale de traitement ou le microprocesseur. Elle est constituée d'un circuit à portes logiques. Les UAL peuvent être spécialisées ou pas. Les UAL élémentaires calculent sur des nombres entiers, et peuvent effectuer les opérations communes, que l'on peut séparer en quatre groupes : Les opérations arithmétiques : addition, soustraction, changement de signe, etc.
Bit slicingBit slicing is a technique for constructing a processor from modules of processors of smaller bit width, for the purpose of increasing the word length; in theory to make an arbitrary n-bit central processing unit (CPU). Each of these component modules processes one bit field or "slice" of an operand. The grouped processing components would then have the capability to process the chosen full word-length of a given software design. Bit slicing more or less died out due to the advent of the microprocessor.
Loi de Moorevignette|upright=1.8|Croissance du nombre de transistors dans les microprocesseurs Intel par rapport à la loi de Moore. En vert, un doublement tous les . Les lois de Moore sont des lois empiriques qui ont trait à l'évolution de la puissance de calcul des ordinateurs et de la complexité du matériel informatique. La première de ces lois est émise par le docteur Gordon E. Moore en 1965, lorsque celui-ci postule sur une poursuite du doublement de la complexité des semi-conducteurs tous les ans à coût constant.
Décimal codé binaireLe décimal codé binaire (DCB) (binary coded decimal ou BCD en anglais), est un système de numération utilisé en électronique numérique et en informatique pour coder des nombres en se rapprochant de la représentation humaine usuelle, en base 10. Dans ce format, les nombres sont représentés par un ou plusieurs chiffres compris entre 0 et 9, et chacun de ces chiffres est codé sur quatre bits : Chiffre Bits 0 0000 1 0001 2 0010 3 0011 4 0100 5 0101 6 0110 7 0111 8 1000 9 1001 Ainsi, pour coder un nombre tel que 127, il suffit de coder chacun des chiffres 1, 2 et 7 séparément, et l'on obtient la valeur 0001 0010 0111.
Intel 4004Le 4004 d'Intel est le premier microprocesseur commercialisé, c'est-à-dire la première intégration réussie d'une grande partie des fonctions d'un processeur sur un seul et unique circuit intégré. Il est d'abord produit en exclusivité pour l'industriel qui a commandité son développement, Busicom, en . Après avoir fait lever la clause d'exclusivité, Intel annonce sa commercialisation le . Sa réalisation est rendue possible par la toute nouvelle technologie des self-aligned gates, qui permet à son concepteur, Federico Faggin, d'intégrer sur un même circuit intégré transistors.
Microprocesseurvignette|Un Intel 4004 dans son boîtier à seize broches, premier microprocesseur commercialisé. vignette|Architecture de l'Intel 4004. vignette|L'intérieur d'un Intel 80486DX2. Un microprocesseur est un processeur dont tous les composants ont été suffisamment miniaturisés pour être regroupés dans un unique boîtier. Fonctionnellement, le processeur est la partie d'un ordinateur qui exécute les instructions et traite les données des programmes.
Système hexadécimalLe système hexadécimal est un système de numération positionnel en base 16. Il utilise ainsi 16 symboles, en général les chiffres arabes pour les dix premiers chiffres et les lettres A à F pour les six suivants (en majuscule ou minuscule). Le système hexadécimal est utilisé notamment en électronique numérique et en informatique car il est particulièrement commode et permet un compromis entre le code binaire des machines et une base de numération pratique à utiliser pour les ingénieurs.
Entier (informatique)En informatique, un entier est un type de donnée qui représente un sous-ensemble fini de nombres entiers relatifs. On utilise aussi le terme type de données entières (integral type data). Un type de donnée est la nature des valeurs que peut prendre une donnée. Certains traitements comme le recensement des États-Unis ont d'abord été effectués en utilisant une représentation décimale à l'aide de cartes perforées. Le système décimal utilise dix chiffres (0, 1, 2, 3, 4, 5, 6, 7, 8, 9) et où leur position correspond à une puissance de 10 (1, 10, 100, 1000, etc.