Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Informationvignette|redresse=0.6|Pictogramme représentant une information. L’information est un de la discipline des sciences de l'information et de la communication (SIC). Au sens étymologique, l'« information » est ce qui donne une forme à l'esprit. Elle vient du verbe latin « informare », qui signifie « donner forme à » ou « se former une idée de ». L'information désigne à la fois le message à communiquer et les symboles utilisés pour l'écrire. Elle utilise un code de signes porteurs de sens tels qu'un alphabet de lettres, une base de chiffres, des idéogrammes ou pictogrammes.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Exposant de LiapounovDans l'analyse d'un système dynamique, l'exposant de Liapounov permet de quantifier la stabilité ou l'instabilité de ses mouvements. Un exposant de Liapounov peut être soit un nombre réel fini, soit ∞ ou –∞. Un mouvement instable a un exposant de Liapounov positif, un mouvement stable correspond à un exposant de Liapounov négatif. Les mouvements bornés d'un système linéaire ont un exposant de Liapounov négatif ou nul. L'exposant de Liapounov peut servir à étudier la stabilité (ou l'instabilité) des points d'équilibre des systèmes non linéaires.
Majorant ou minorantEn mathématiques, soient (E , ≤) un ensemble ordonné et F une partie de E ; un élément x de E est : un majorant de F s'il est supérieur ou égal, par la relation binaire définie au préalable, à tous les éléments de F : ; un minorant de F s'il est inférieur ou égal, par la relation binaire définie au préalable, à tous les éléments de F :. Si F possède un majorant x alors on dit que F est une partie majorée. Si F possède un minorant x alors on dit que F est une partie minorée.
Processus de branchementEn théorie des probabilités, un processus de branchement est un processus stochastique formé par une collection de variables aléatoires. Les variables aléatoires d'un processus stochastique sont indexées par les nombres entiers naturels. Les processus de branchement ont été développés en premier lieu pour décrire une population dans laquelle chaque individu de la génération produit un nombre aléatoire d'individus dans la génération .
Théorie algorithmique de l'informationLa théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d'un objet, dans la mesure où l'on considère qu'un objet (au sens large) est d'autant plus complexe qu'il faut beaucoup d'informations pour le décrire, ou — à l'inverse — qu'un objet contient d'autant plus d'informations que sa description est longue.
Gestion stratégique de l'informationLa gestion stratégique de l'information (GSI ou information management en anglais) est une approche ou une philosophie dans la façon d'acquérir, de colliger, d'organiser, de conserver, de protéger et de communiquer l'information, que ce soit sous forme de documents divers ou d’informations tacites, dans les organisations, notamment les entreprises. Il s'agit essentiellement d'orienter et de penser ses activités d'acquisition, d'organisation et de redistribution de l'information de sorte qu'elles permettent à une organisation d’être le plus efficace possible en fonction de ses objectifs stratégiques.
Accès à l'informationL'accès à l'information est une extension de la liberté d'expression qui recouvre notamment la liberté de la presse. L’information est l’ensemble de données dans les domaines techniques, scientifiques, économiques, institutionnels, culturels et historiques pouvant être sous forme d’images, de textes, de discours et de sons. L’accès à l’information a pour objectif de garantir à un public le plus large possible, la mise à disposition de tout événement, tout fait, tout jugement et tout document par tous moyens telle la télévision, la radio, la presse et Internet sachant que ce dernier diffuse les informations plus rapidement et à niveau mondial.
Technologie de l'informationLa technologie de l'information (TI), ou IT pour « information technology » en anglais, appelée aussi système informatique, désigne le domaine technique du traitement de l'information, souvent dans un contexte professionnel. Ce domaine a été soumis à un accord de libre échange par l'OMC appelé accord sur les technologies de l'information. Avec la numérisation des systèmes de communication et pour tenir compte de l'intégration de leur gestion aux technologies de l'information, le monde universitaire utilise l'expression « Technologies de l'information et de la communication » (TIC).