Anatomievignette|Illustration du traité d'anatomie De humani corporis fabrica d'André Vésale. L’ (emprunté au bas latin anatomia « dissection », issu du grec ἀνατέμνω (ànatémno), de ἀνά – ana, « en remontant », et τέμνω – temnō, « couper ») est la science qui décrit la forme et la structure des organismes vivants et les rapports des organes et tissus qui les constituent. On peut notamment distinguer l'anatomie animale (et en particulier l'anatomie humaine, très importante en médecine) et l'anatomie végétale (branche de la botanique).
Jeffreys priorIn Bayesian probability, the Jeffreys prior, named after Sir Harold Jeffreys, is a non-informative prior distribution for a parameter space; its density function is proportional to the square root of the determinant of the Fisher information matrix: It has the key feature that it is invariant under a change of coordinates for the parameter vector . That is, the relative probability assigned to a volume of a probability space using a Jeffreys prior will be the same regardless of the parameterization used to define the Jeffreys prior.
Anatomie généraleL'anatomie générale est l'étude de l'anatomie au niveau visible ou macroscopique. Le pendant de l'anatomie macroscopique est le domaine de l'histologie, qui étudie l'anatomie microscopique. L'anatomie générale du corps humain ou d'autres animaux cherche à comprendre la relation entre les composants d'un organisme afin d'acquérir une meilleure appréciation des rôles de ces composants et de leurs relations dans le maintien des fonctions de la vie.
Théorie de l'informationLa théorie de l'information, sans précision, est le nom usuel désignant la théorie de l'information de Shannon, qui est une théorie utilisant les probabilités pour quantifier le contenu moyen en information d'un ensemble de messages, dont le codage informatique satisfait une distribution statistique que l'on pense connaître. Ce domaine trouve son origine scientifique avec Claude Shannon qui en est le père fondateur avec son article A Mathematical Theory of Communication publié en 1948.
Apprentissage profondL'apprentissage profond ou apprentissage en profondeur (en anglais : deep learning, deep structured learning, hierarchical learning) est un sous-domaine de l’intelligence artificielle qui utilise des réseaux neuronaux pour résoudre des tâches complexes grâce à des architectures articulées de différentes transformations non linéaires. Ces techniques ont permis des progrès importants et rapides dans les domaines de l'analyse du signal sonore ou visuel et notamment de la reconnaissance faciale, de la reconnaissance vocale, de la vision par ordinateur, du traitement automatisé du langage.
Algorithme génétiqueLes algorithmes génétiques appartiennent à la famille des algorithmes évolutionnistes. Leur but est d'obtenir une solution approchée à un problème d'optimisation, lorsqu'il n'existe pas de méthode exacte (ou que la solution est inconnue) pour le résoudre en un temps raisonnable. Les algorithmes génétiques utilisent la notion de sélection naturelle et l'appliquent à une population de solutions potentielles au problème donné.
Conjugate priorIn Bayesian probability theory, if the posterior distribution is in the same probability distribution family as the prior probability distribution , the prior and posterior are then called conjugate distributions, and the prior is called a conjugate prior for the likelihood function . A conjugate prior is an algebraic convenience, giving a closed-form expression for the posterior; otherwise, numerical integration may be necessary. Further, conjugate priors may give intuition by more transparently showing how a likelihood function updates a prior distribution.