Loi normale généraliséeEn théorie des probabilités et en statistique, la loi normale généralisée ou loi gaussienne généralisée désigne deux familles de lois de probabilité à densité dont les supports sont l'ensemble des réels. Cette loi rajoute un paramètre de forme à la loi normale. Pour les différencier, les deux familles seront appelées « version 1 » et « version 2 », ce ne sont cependant pas des appellations standards. La densité de probabilité des lois de cette famille est donnée par la formule : où est la fonction gamma, est un paramètre de position, est un paramètre d'échelle et est un paramètre de forme.
Loi de Dirichletthumb|right|250px|Plusieurs images de la densité de la loi de Dirichlet lorsque K=3 pour différents vecteurs de paramètres α. Dans le sens horaire à partir du coin supérieur gauche : α=(6, 2, 2), (3, 7, 5), (6, 2, 6), (2, 3, 4). En probabilité et statistiques, la loi de Dirichlet, souvent notée Dir(α), est une famille de lois de probabilité continues pour des variables aléatoires multinomiales. Cette loi (ou encore distribution) est paramétrée par le vecteur α de nombres réels positifs et tire son nom de Johann Peter Gustav Lejeune Dirichlet.
Topologie de réseauvignette Une topologie de réseau informatique correspond à l'architecture (physique, logicielle ou logique) de celui-ci, définissant les liaisons entre les équipements du réseau et une hiérarchie éventuelle entre eux. Elle peut définir la façon dont les équipements sont interconnectés et la représentation spatiale du réseau (topologie physique). Elle peut aussi définir la façon dont les données transitent dans les lignes de communication (topologies logiques).
Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.
Réseau sans filUn réseau sans fil est un réseau informatique numérique qui connecte différents postes ou systèmes entre eux par ondes radio. Il peut être associé à un réseau de télécommunications pour réaliser des interconnexions à distance entre nœuds. 1896 : Guglielmo Marconi réalise les premières transmissions sans fil (télégraphie sans fil) après que Nikola Tesla a déposé les premiers brevets dans ce domaine. 1980 : invention d'Internet et des normes 802 de l'IEEE. La norme la plus utilisée actuellement pour les réseaux sans fil est la norme IEEE 802.
Réseau de télécommunicationsvignette|Diagramme générique d'un réseau informatique "arborescent" ou "hiérarchique" Un réseau de télécommunications est un réseau d'arcs (liaisons de télécommunications) et de nœuds (commutateurs, routeurs...), mis en place de telle sorte que des messages puissent être transmis d'un bout à l'autre du réseau au travers des multiples liaisons. Les liaisons d'un réseau de télécommunication peuvent être réalisées grâce à des systèmes de transmission hiérarchiques.
Réseau socialEn sciences humaines et sociales, l'expression réseau social désigne un agencement de liens entre des individus ou des organisations, constituant un groupement qui a un sens : la famille, les collègues, un groupe d'amis, une communauté, etc. L'anthropologue australien John Arundel Barnes a introduit l'expression en 1954. L'analyse des réseaux sociaux est devenue une spécialité universitaire dans le champ de la sociologie, se fondant sur la théorie des réseaux et l'usage des graphes.
Réseau superposéthumb|Un réseau superposé et ses couches successives. Un réseau superposé, ou réseau overlay, est un réseau informatique bâti sur un autre réseau. Les nœuds du réseau superposé sont interconnectés par des liens logiques du réseau sous-jacent. La complexité du réseau sous-jacent n'est pas visible par le réseau superposé. Cette abstraction du réseau sous-jacent est une source d'inefficacité des flux, qui peuvent transiter plusieurs fois par les mêmes liens physiques.
Machine à vecteurs de supportLes machines à vecteurs de support ou séparateurs à vaste marge (en anglais support-vector machine, SVM) sont un ensemble de techniques d'apprentissage supervisé destinées à résoudre des problèmes de discrimination et de régression. Les SVM sont une généralisation des classifieurs linéaires. Les séparateurs à vaste marge ont été développés dans les années 1990 à partir des considérations théoriques de Vladimir Vapnik sur le développement d'une théorie statistique de l'apprentissage : la théorie de Vapnik-Tchervonenkis.
Distribution (mathématiques)En analyse mathématique, une distribution (également appelée fonction généralisée) est un objet qui généralise la notion de fonction et de mesure. La théorie des distributions étend la notion de dérivée à toutes les fonctions localement intégrables et au-delà, et est utilisée pour formuler des solutions à certaines équations aux dérivées partielles. Elles sont importantes en physique et en ingénierie où beaucoup de problèmes discontinus conduisent naturellement à des équations différentielles dont les solutions sont des distributions plutôt que des fonctions ordinaires.