Les relations interpersonnelles, domaine relatif aux relations humaines, ont lieu lorsqu'au moins deux personnes sont en interaction. Il s'agit d'un sujet d'étude clé de la psychologie sociale pour la compréhension des rapports ayant lieu au sein de petits groupes de personnes ou plus largement à l'intérieur de groupes sociaux. Ce sujet étudie comment les comportements individuels sont influencés par ceux des autres personnes et s'y opposent ou s'y adaptent. Il intéresse aussi la sociologie au niveau de la structuration des relations humaines.
La communication non verbale (ou langage du corps) désigne tout échange n'ayant pas recours à la parole. Elle ne repose pas sur les mots (pratiques linguistiques), mais sur plusieurs champs extralinguistiques correspondant à des signaux sociaux ou catégories fonctionnelles, objets d'études de différentes disciplines : communication para-verbale (communication vocale comprenant les traits prosodiques, les onomatopées, le rire, la toux, et parfois distinguée de la communication non verbale) analysée par la , gestes (mouvements du corps, gestuelle, actions et réactions) et expressions faciales (dont les micro-expressions) étudiés par la kinésique et la gestique, contact visuel et rôle du regard (clin d'œil complice, regard désapprobateur ou sceptique.
thumb|Schéma simpliste de la transmission linéaire de l'information dans la communication (paradigme mécaniste) Les sciences de l'information et de la communication (SIC) forment un champ de recherches universitaires, connu sous ce nom en France, Belgique, Suisse, Algérie et au Maroc. Au Québec, on se réfère aux études en « Communication » ou « Science de l'information ». Créée en France au cours du , en écho aux américaines ou à la allemande, cette nouvelle discipline se fonde sans que les chercheurs qui y participent ne partagent un paradigme commun.
vignette|redresse=0.6|Pictogramme représentant une information. L’information est un de la discipline des sciences de l'information et de la communication (SIC). Au sens étymologique, l'« information » est ce qui donne une forme à l'esprit. Elle vient du verbe latin « informare », qui signifie « donner forme à » ou « se former une idée de ». L'information désigne à la fois le message à communiquer et les symboles utilisés pour l'écrire. Elle utilise un code de signes porteurs de sens tels qu'un alphabet de lettres, une base de chiffres, des idéogrammes ou pictogrammes.
Dans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.