Test (informatique)vignette|Une programmeuse écrivant du code Java avec JUnit. En informatique, un test désigne une procédure de vérification partielle d'un système. Son objectif principal est d'identifier un nombre maximal de comportements problématiques du logiciel. Il permet ainsi, dès lors que les problèmes identifiés seront corrigés, d'en augmenter la qualité. D'une manière plus générale, le test désigne toutes les activités qui consistent à rechercher des informations quant à la qualité du système afin de permettre la prise de décisions.
Test de validationUn test de validation est un type de test informatique qui permet de vérifier si toutes les exigences client, décrites dans le document de spécification du logiciel, sont respectées. Les tests de validation se décomposent généralement en plusieurs phases : Validation fonctionnelle : les tests fonctionnels assurent que les différents modules ou composants implémentent correctement les exigences client. Ces tests peuvent être de type valide, invalide, inopportuns, etc.
Test unitaireEn programmation informatique, le test unitaire (ou « T.U. », ou « U.T. » en anglais) est une procédure permettant de vérifier le bon fonctionnement d'une partie précise d'un logiciel ou d'une portion d'un programme (appelée « unité » ou « module »). Dans les applications non critiques, l'écriture des tests unitaires a longtemps été considérée comme une tâche secondaire. Cependant, les méthodes Extreme programming (XP) ou Test Driven Development (TDD) ont remis les tests unitaires, appelés « tests du programmeur », au centre de l'activité de programmation.
Boîte blancheDans la théorie des systèmes, une boîte blanche (de l'anglais white box), ou boîte transparente, est un module d'un système dont on peut prévoir le fonctionnement interne car on connaît les caractéristiques de fonctionnement de l'ensemble des éléments qui le composent. Autrement dit une boîte blanche est un module qui comporte aussi peu de boîtes noires que possible. On qualifie les systèmes mixtes de « boîtes grises ».
Cycle de vie d'un logicielvignette| Le cycle de vie d'un logiciel (à traduire) Le cycle de vie d'un logiciel désigne l'ensemble des étapes de développement d'un logiciel, du début de son développement jusqu'à la fin de vie. Ces étapes incluent également les potentielles mises à jour du logiciel, une fois une version publiée (à des fins de perfectionnement ou de correction de bugs encore présents dans le logiciel) L'utilisation de la terminologie de test alpha / bêta a commencé chez IBM.
Super-résolutionEn traitement du signal et en , la super-résolution désigne le processus qui consiste à améliorer la résolution spatiale, c'est-à-dire le niveau de détail, d'une image ou d'un système d'acquisition. Cela regroupe des méthodes matérielles qui visent à contourner les problèmes optiques et autres difficultés physiques rencontrées lors de l'acquisition d'image, ainsi que des techniques algorithmiques qui, à partir d'une ou de plusieurs images déjà capturées, créent une image de meilleure résolution.
Microscopie à super-résolutionLa microscopie à super-résolution est un ensemble de techniques permettant d'imager en microscopie optique des objets à une résolution à l’échelle nanométrique. Elle se démarque par le fait que la résolution obtenue n'est plus limitée par le phénomène de diffraction. Du fait de la diffraction de la lumière, la résolution d’un microscope optique conventionnel est en principe limitée, indépendamment du capteur utilisé et des aberrations ou imperfections des lentilles.
Écran à cristaux liquidesthumb|right|Dans une Tablet PC. thumb|right|Dans un appareil photographique numérique. L'écran à cristaux liquides ou LCD (de l'anglais liquid crystal display) (ACL au Québec pour affichage à cristaux liquides) permet la création d’écrans plats à faible consommation d'électricité. Ces écrans sont utilisés dans presque tous les affichages électroniques. Les premiers panneaux d’affichage à cristaux liquides ont été présentés en 1971, mais il faut attendre 1985 pour que Matsushita propose un écran plat d’une taille et d'une résolution suffisante pour être utilisable sur des micro-ordinateurs.
Écran à plasmaLes écrans à plasma fonctionnent de façon similaire aux tubes d'éclairage fluorescents (improprement appelés « néons »). Ils utilisent l’électricité pour illuminer un gaz. thumb|300px|Schéma de principe Le gaz utilisé est un mélange de gaz nobles (argon 90 % et xénon 10 %). Ce mélange de gaz est inerte et inoffensif. Pour qu'il émette de la lumière on lui applique un courant électrique qui le transforme en plasma, un fluide ionisé dont les atomes ont perdu un ou plusieurs de leurs électrons et ne sont plus électriquement neutres, alors que les électrons ainsi libérés forment un nuage autour.
Définition d'écranLa définition d’écran est le nombre de points ou pixels (de l'anglais picture elements) que peut afficher un écran. La définition est le produit du nombre de points selon l’horizontale par le nombre de points selon la verticale de l’affichage. La définition est couramment confondue, à tort, avec la d'écran (la résolution prend en compte la taille de l'écran) ; un logiciel peut ainsi choisir parmi les différentes résolutions disponibles d'un écran.