Théorie algorithmique de l'informationLa théorie algorithmique de l'information, initiée par Kolmogorov, Solomonov et Chaitin dans les années 1960, vise à quantifier et qualifier le contenu en information d'un ensemble de données, en utilisant la théorie de la calculabilité et la notion de machine universelle de Turing. Cette théorie permet également de formaliser la notion de complexité d'un objet, dans la mesure où l'on considère qu'un objet (au sens large) est d'autant plus complexe qu'il faut beaucoup d'informations pour le décrire, ou — à l'inverse — qu'un objet contient d'autant plus d'informations que sa description est longue.
Ère de l'informationvignette|redresse=1.5| Anneaux concentriques sur un arbre afin de représenter quelques dates importantes de la révolution numérique de 1968 à 2017. L'ère de l'information (aussi connue comme ère numérique ou ère informatique) est une expression forgée par le sociologue Manuel Castells pour désigner une période historique qui débute au milieu du et qui est caractérisée par un rapide passage de l'industrie traditionnelle établie par la révolution industrielle à une économie principalement basée sur la technologie de l'information.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Système d'informationalt=Monitoring d'un système d'information de contrôle du trafic aérien|vignette|363x363px|Monitoring d'un système d'information de contrôle du trafic aérien Le système d'information (SI) est un ensemble organisé de ressources qui permet de collecter, stocker, traiter et distribuer de l'information, en général grâce à un réseau d'ordinateurs. Il s'agit d'un système socio-technique composé de deux sous-systèmes, l'un social et l'autre technique. Le sous-système social est composé de la structure organisationnelle et des personnes liées au SI.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Collaboration massiveLa collaboration de masse est une forme d'action collective qui a lieu lorsqu'un large nombre de personnes travaillent plus ou moins indépendamment sur un unique projet, souvent de nature modulaire. Ce type de projets est typiquement mené sur des plateformes internet par le biais de logiciels sociaux comme wiki technologies. On peut envisager des exemples publics comme des exemples privés. Wikipédia est un exemple de coopération/collaboration de Masse publique.
Technologie de l'informationLa technologie de l'information (TI), ou IT pour « information technology » en anglais, appelée aussi système informatique, désigne le domaine technique du traitement de l'information, souvent dans un contexte professionnel. Ce domaine a été soumis à un accord de libre échange par l'OMC appelé accord sur les technologies de l'information. Avec la numérisation des systèmes de communication et pour tenir compte de l'intégration de leur gestion aux technologies de l'information, le monde universitaire utilise l'expression « Technologies de l'information et de la communication » (TIC).
Recherche d'informationLa recherche d'information (RI) est le domaine qui étudie la manière de retrouver des informations dans un corpus. Celui-ci est composé de documents d'une ou plusieurs bases de données, qui sont décrits par un contenu ou les métadonnées associées. Les bases de données peuvent être relationnelles ou non structurées, telles celles mises en réseau par des liens hypertexte comme dans le World Wide Web, l'internet et les intranets. Le contenu des documents peut être du texte, des sons, des images ou des données.
Accès à l'informationL'accès à l'information est une extension de la liberté d'expression qui recouvre notamment la liberté de la presse. L’information est l’ensemble de données dans les domaines techniques, scientifiques, économiques, institutionnels, culturels et historiques pouvant être sous forme d’images, de textes, de discours et de sons. L’accès à l’information a pour objectif de garantir à un public le plus large possible, la mise à disposition de tout événement, tout fait, tout jugement et tout document par tous moyens telle la télévision, la radio, la presse et Internet sachant que ce dernier diffuse les informations plus rapidement et à niveau mondial.
CollaborationLa collaboration est l'acte de travailler ou de réfléchir ensemble pour atteindre un objectif. Dans son sens commun, la collaboration est un processus par lequel deux ou plusieurs personnes ou organisations s’associent pour effectuer un travail intellectuel suivant des objectifs communs. Des méthodes structurées de collaboration encouragent l'introspection de comportements et communication. Ces méthodes ont pour objectif spécifique l'augmentation du taux de réussite des équipes quand elles se livrent à la résolution de problèmes en collaboration.