Communication animaleLa communication animale regroupe l'ensemble des échanges d'information entre des individus d'une même espèce (communication intraspécifique) ou d'espèces différentes (communication extraspécifique) chez les animaux. Les animaux communiquent entre eux pour différentes raisons : séduction du partenaire, compétition pour les ressources, recherche de nourriture. Ils utilisent pour cela un signal ou un message (support physique de l'information), comme une odeur, un son, un mouvement, ou un signal électrique.
Information mutuelleDans la théorie des probabilités et la théorie de l'information, l'information mutuelle de deux variables aléatoires est une quantité mesurant la dépendance statistique de ces variables. Elle se mesure souvent en bit. L'information mutuelle d'un couple de variables représente leur degré de dépendance au sens probabiliste. Ce concept de dépendance logique ne doit pas être confondu avec celui de causalité physique, bien qu'en pratique l'un implique souvent l'autre.
Quantities of informationThe mathematical theory of information is based on probability theory and statistics, and measures information with several quantities of information. The choice of logarithmic base in the following formulae determines the unit of information entropy that is used. The most common unit of information is the bit, or more correctly the shannon, based on the binary logarithm.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
Communication améliorée et alternativeright|thumb| alt=Une utilisatrice d'un système de communication alternative par balayage visuel pointe du regard l'un des chiffres inscrit sur un tableau transparent, afin de former un mot|Utilisatrice d'un système de communication alternative par balayage visuel, indiquant par le regard une série de chiffres sur un tableau afin de former un mot. La communication améliorée et alternative (CAA) est un terme générique qui englobe les méthodes de communication utilisées pour compléter ou remplacer la parole ou l'écriture pour les personnes ayant une déficience dans la production ou la compréhension du langage.
Relation interpersonnelleLes relations interpersonnelles, domaine relatif aux relations humaines, ont lieu lorsqu'au moins deux personnes sont en interaction. Il s'agit d'un sujet d'étude clé de la psychologie sociale pour la compréhension des rapports ayant lieu au sein de petits groupes de personnes ou plus largement à l'intérieur de groupes sociaux. Ce sujet étudie comment les comportements individuels sont influencés par ceux des autres personnes et s'y opposent ou s'y adaptent. Il intéresse aussi la sociologie au niveau de la structuration des relations humaines.
Polynôme symétriqueEn mathématiques, un polynôme symétrique est un polynôme en plusieurs indéterminées, invariant par permutation de ses indéterminées. Ils jouent notamment un rôle dans les relations entre coefficients et racines. Soit A un anneau commutatif unitaire. Un polynôme Q(T, ..., T) en n indéterminées à coefficients dans A est dit symétrique si pour toute permutation s de l'ensemble d'indices {1, ..., n}, l'égalité suivante est vérifiée : Exemples Pour n = 1, tout polynôme est symétrique.
Fonction trigonométriquethumb|upright=1.35|Toutes les valeurs des fonctions trigonométriques d'un angle θ peuvent être représentées géométriquement. En mathématiques, les fonctions trigonométriques permettent de relier les longueurs des côtés d'un triangle en fonction de la mesure des angles aux sommets. Plus généralement, ces fonctions sont importantes pour étudier les triangles et les polygones, les cercles (on les appelle alors fonctions circulaires) et modéliser des phénomènes périodiques.
Fonction elliptique de JacobiEn mathématiques, les fonctions elliptiques de Jacobi sont des fonctions elliptiques d'une grande importance historique. Introduites par Carl Gustav Jakob Jacobi vers 1830, elles ont des applications directes, par exemple dans l'équation du pendule. Elles présentent aussi des analogies avec les fonctions trigonométriques, qui sont mises en valeur par le choix des notations sn et cn, qui rappellent sin et cos. Si les fonctions elliptiques thêta de Weierstrass semblent mieux adaptées aux considérations théoriques, les problèmes physiques pratiques font plus appel aux fonctions de Jacobi.
Complete homogeneous symmetric polynomialIn mathematics, specifically in algebraic combinatorics and commutative algebra, the complete homogeneous symmetric polynomials are a specific kind of symmetric polynomials. Every symmetric polynomial can be expressed as a polynomial expression in complete homogeneous symmetric polynomials. The complete homogeneous symmetric polynomial of degree k in n variables X1, ..., Xn, written hk for k = 0, 1, 2, ..., is the sum of all monomials of total degree k in the variables.