MicroscopieLa microscopie est un ensemble de techniques d' des objets de petites dimensions. Quelle que soit la technique employée, l'appareil utilisé pour rendre possible cette observation est appelé un . Des mots grecs anciens mikros et skopein signifiant respectivement « petit » et « examiner », la microscopie désigne étymologiquement l'observation d'objets invisibles à l'œil nu. On distingue principalement trois types de microscopies : la microscopie optique, la microscopie électronique et la microscopie à sonde locale.
Equalization (audio)Equalization, or simply EQ, in sound recording and reproduction is the process of adjusting the volume of different frequency bands within an audio signal. The circuit or equipment used to achieve this is called an equalizer. Most hi-fi equipment uses relatively simple filters to make bass and treble adjustments. Graphic and parametric equalizers have much more flexibility in tailoring the frequency content of an audio signal.
Blob detectionIn computer vision, blob detection methods are aimed at detecting regions in a that differ in properties, such as brightness or color, compared to surrounding regions. Informally, a blob is a region of an image in which some properties are constant or approximately constant; all the points in a blob can be considered in some sense to be similar to each other. The most common method for blob detection is convolution.
Modèle de contour actifUn modèle de contour actif, souvent nommé snake (« serpent » en anglais) dans la littérature, est une structure dynamique utilisée en et en vision artificielle. Ils ont été introduits de manière formelle par Kass et Witkin en 1987. Plusieurs approches sont possibles et permettent de résoudre le problème de la et de la détection de contour en utilisant un modèle de courbe déformable qui épouse la forme des objets. Un modèle de contour actif est formé d'une série de points mobiles et répartis sur une courbe en deux dimensions.
Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
Microscopie à super-résolutionLa microscopie à super-résolution est un ensemble de techniques permettant d'imager en microscopie optique des objets à une résolution à l’échelle nanométrique. Elle se démarque par le fait que la résolution obtenue n'est plus limitée par le phénomène de diffraction. Du fait de la diffraction de la lumière, la résolution d’un microscope optique conventionnel est en principe limitée, indépendamment du capteur utilisé et des aberrations ou imperfections des lentilles.
Microscope confocalvignette|upright=2|Schéma de principe du microscope confocal par Marvin Minsky en 1957. vignette|upright=1.5|Principe de fonctionnement du microscope à fluorescence puis du microscope confocal. Un microscope confocal, appelé plus rarement microscope monofocal, est un microscope optique qui a la propriété de réaliser des images de très faible profondeur de champ (environ ) appelées « sections optiques ».
Direct manipulation interfaceIn computer science, human–computer interaction, and interaction design, direct manipulation is an approach to interfaces which involves continuous representation of objects of interest together with rapid, reversible, and incremental actions and feedback. As opposed to other interaction styles, for example, the command language, the intention of direct manipulation is to allow a user to manipulate objects presented to them, using actions that correspond at least loosely to manipulation of physical objects.
Optimisation de codeEn programmation informatique, l'optimisation de code est la pratique consistant à améliorer l'efficacité du code informatique d'un programme ou d'une bibliothèque logicielle. Ces améliorations permettent généralement au programme résultant de s'exécuter plus rapidement, de prendre moins de place en mémoire, de limiter sa consommation de ressources (par exemple les fichiers), ou de consommer moins d'énergie électrique. La règle numéro un de l'optimisation est qu'elle ne doit intervenir qu'une fois que le programme fonctionne et répond aux spécifications fonctionnelles.
Loi bêtaDans la théorie des probabilités et en statistiques, la loi bêta est une famille de lois de probabilités continues, définies sur , paramétrée par deux paramètres de forme, typiquement notés (alpha) et (bêta). C'est un cas spécial de la loi de Dirichlet, avec seulement deux paramètres. Admettant une grande variété de formes, elle permet de modéliser de nombreuses distributions à support fini. Elle est par exemple utilisée dans la méthode PERT. Fixons les deux paramètres de forme α, β > 0.