Signal logiqueUn signal logique est un signal physique qui ne peut prendre que 2 valeurs, un niveau haut (en anglais "high" = "H"), et un niveau bas (en anglais "low" = "L"). Dans les ordinateurs et d'autres systèmes numériques, une forme d'onde qui alterne entre deux niveaux de tension représentant les deux états d'une valeur booléenne (0 et 1) est désigné comme un signal logique. Pour tout ce qui concerne la logique combinatoire ces deux niveaux suffisent.
Fracture numériquevignette|USAID >> US AID, une agence pour la réduction d'inégalités La fracture numérique décrit les inégalités dans l’accès aux technologies de l’information et de la communication (TIC), leur utilisation et leur impact. Sont généralement admis au moins deux niveaux de fracture numérique : l’accès (fracture de premier degré) et l'usage (fracture de second degré). Elle résulte de disparités sociales, générationnelles et se traduit en termes d'accès aux outils numériques, au réseau, et de compétence dans leurs utilisations.
Émetteur (communication)Dans les domaines de la linguistique et de la communication, un émetteur ou destinateur est une personne ou une entité qui crée un message - et souvent le conceptualise au moyen de signes linguistiques - et le transmet ensuite à un récepteur ou destinataire par le canal d'un média. En linguistique de l'énonciation, on parle également d'énonciateur ou de sujet de l'énonciation. Locuteur : celui qui prononce un message oral Scripteur : celui qui rédige un message écrit Catégorie:Communication humaine Catégor
Code (information)vignette|redresse|Code morse international. En sciences et techniques, notamment en informatique et en théorie de l'information, un code est une règle de transcription qui, à tout symbole d'un jeu de caractères (alphabet source) assigne de manière univoque un caractère ou une chaîne de caractères pris dans un jeu de caractères éventuellement différent (alphabet cible). Un exemple est le code morse qui établit une relation entre lettres de l'alphabet latin et des séquences de sons courts et longs.
Théorie algorithmique de l'informationLa théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d'un objet, dans la mesure où l'on considère qu'un objet (au sens large) est d'autant plus complexe qu'il faut beaucoup d'informations pour le décrire, ou — à l'inverse — qu'un objet contient d'autant plus d'informations que sa description est longue.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
BitLe bit est l'unité la plus simple dans un système de numération, ne pouvant prendre que deux valeurs, désignées le plus souvent par les chiffres 0 et 1. Un bit peut représenter aussi bien une alternative logique, exprimée par faux et vrai, qu'un « chiffre binaire », binary digit en anglais, dont le mot bit, qui signifie « morceau », est aussi l'abréviation. Dans la théorie de l'information, un bit est la quantité minimale d'information transmise par un message, et constitue à ce titre l'unité de mesure de base de l'information en informatique.
FaitUn fait est un événement advenu ou advenant dans l'histoire d'un individu ou d'un groupe. Il est caractérisé par son extériorité, par opposition à une idée qui, elle, relève de l'intériorité. Un fait peut être naturel (exemples : une rivière qui coule, la naissance d'un enfant...) ou artificiel ; et dans ce cas, il peut être matériel (exemple : la création d'une machine) ou immatériel et composé lui-même de plusieurs faits (exemple : l'organisation du travail dans une entreprise).
Tableau (statistique)A table is an arrangement of information or data, typically in rows and columns, or possibly in a more complex structure. Tables are widely used in communication, research, and data analysis. Tables appear in print media, handwritten notes, computer software, architectural ornamentation, traffic signs, and many other places. The precise conventions and terminology for describing tables vary depending on the context. Further, tables differ significantly in variety, structure, flexibility, notation, representation and use.
Military communicationsMilitary communications or military signals involve all aspects of communications, or conveyance of information, by armed forces. Examples from Jane's Military Communications include text, audio, facsimile, tactical ground-based communications, naval signalling, terrestrial microwave, tropospheric scatter, satellite communications systems and equipment, surveillance and signal analysis, security, direction finding and jamming. The most urgent purposes are to communicate information to commanders and orders from them.