Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Secure Shell(SSH) est à la fois un programme informatique et un protocole de communication sécurisé. Le protocole de connexion impose un échange de clés de chiffrement en début de connexion. Par la suite, tous les segments TCP sont authentifiés et chiffrés. Il devient donc impossible d'utiliser un sniffer pour voir ce que fait l'utilisateur. Le protocole SSH a été conçu avec l'objectif de remplacer les différents protocoles non chiffrés comme rlogin, telnet, rcp et rsh. Le protocole SSH existe en deux versions majeures : la version 1.
CommunicationLa communication est l'ensemble des interactions avec un tiers humain ou animal qui véhiculent une ou plusieurs informations. En dehors de la communication animale, on distingue chez l'être humain, la communication interpersonnelle, la communication de groupe et la communication de masse, c'est-à-dire de l'ensemble des moyens et techniques permettant la diffusion du message d'une organisation sociale auprès d'une large audience. Plusieurs disciplines emploient la notion de communication sans s'accorder sur une définition commune.
Sécurité inconditionnelleEn cryptologie, la sécurité inconditionnelle est un critère de sécurité important dans le cadre des algorithmes de chiffrement. Cette sécurité est intimement liée à la théorie de l'information et la notion d'entropie, elle a été définie dans le cadre des travaux de Claude Shannon à la fin des années 1940. Si le critère est rempli, un attaquant ne récupère aucune information sur le texte clair à partir du texte chiffré. À ce jour, seul le masque jetable remplit cette condition sous des hypothèses strictes.
Théorie des codesEn théorie de l'information, la théorie des codes traite des codes et de leurs propriétés et de leurs aptitudes à servir sur différents canaux de communication. On distingue deux modèles de communication : avec et sans bruit. Sans bruit, le codage de source suffit à la communication. Avec bruit, la communication est possible avec les codes correcteurs. En définissant l'information de façon mathématique, l'étape fondatrice de la théorie des codes a été franchie par Claude Shannon.
Error correction codeIn computing, telecommunication, information theory, and coding theory, forward error correction (FEC) or channel coding is a technique used for controlling errors in data transmission over unreliable or noisy communication channels. The central idea is that the sender encodes the message in a redundant way, most often by using an error correction code or error correcting code (ECC). The redundancy allows the receiver not only to detect errors that may occur anywhere in the message, but often to correct a limited number of errors.
Messagerie textevignette|Un message texte par SMS - la limite de 160 caractères a conduit aux abréviations de « langage SMS ». La messagerie texte, ou texto, est l'acte de composer et d'envoyer des messages électroniques, généralement composés de caractères alphabétiques et numériques, entre deux ou plusieurs utilisateurs de dispositifs mobiles, d'ordinateurs de bureau/portables ou d'autres types d'ordinateurs compatibles. Les messages textuels peuvent être envoyés sur un réseau cellulaire, ou peuvent également être envoyés via une connexion Internet.
Canal de communication (théorie de l'information)vignette En théorie de l'information, un canal de communication ou canal de transmission est un support (physique ou non) permettant la transmission d'une certaine quantité d'information, depuis une source (ou émetteur) vers un destinataire (ou récepteur). Souvent, le canal altère l'information transmise, par exemple en ajoutant un bruit aléatoire. La quantité d'information qu'un canal de communication peut transporter est limitée : on parle de capacité du canal.
Relation interpersonnelleLes relations interpersonnelles, domaine relatif aux relations humaines, ont lieu lorsqu'au moins deux personnes sont en interaction. Il s'agit d'un sujet d'étude clé de la psychologie sociale pour la compréhension des rapports ayant lieu au sein de petits groupes de personnes ou plus largement à l'intérieur de groupes sociaux. Ce sujet étudie comment les comportements individuels sont influencés par ceux des autres personnes et s'y opposent ou s'y adaptent. Il intéresse aussi la sociologie au niveau de la structuration des relations humaines.
Communication sécuriséeUne communication sécurisée se déroule quand des entités communiquent sans que des parties tierces puissent intercepter l'échange. Pour cela, ils doivent communiquer dans un environnement où l'information ne peut être comprise et/ou interceptée. Pour les télécommunications, on privilégie surtout le fait de ne pas pouvoir être compris en utilisant des algorithmes de chiffrement de l'information. Ainsi, même si l'on peut intercepter les signaux de l'échange on ne peut comprendre ce qui est dit - ni voir à qui le message est adressé (quand les méta-données sont également chiffrées).