Dualité (optimisation)En théorie de l'optimisation, la dualité ou principe de dualité désigne le principe selon lequel les problèmes d'optimisation peuvent être vus de deux perspectives, le problème primal ou le problème dual, et la solution du problème dual donne une borne inférieure à la solution du problème (de minimisation) primal. Cependant, en général les valeurs optimales des problèmes primal et dual ne sont pas forcément égales : cette différence est appelée saut de dualité. Pour les problèmes en optimisation convexe, ce saut est nul sous contraintes.
Contrôle qualitévignette|Contrôle qualité du nylon, 1954, Malmö. Photographie conservée au musée nordique. Le contrôle qualité est un aspect de la gestion de la qualité. Le contrôle est une opération destinée à déterminer, avec des moyens appropriés, si le produit (y compris, services, documents, code source) contrôlé est conforme ou non à ses spécifications ou exigences préétablies et incluant une décision d'acceptation, de rejet ou de retouche. L'ancienne norme ISO 8402 (maintenant annulée) en donnait la définition suivante : (ISO8402:1994, § 2.
Constrained optimizationIn mathematical optimization, constrained optimization (in some contexts called constraint optimization) is the process of optimizing an objective function with respect to some variables in the presence of constraints on those variables. The objective function is either a cost function or energy function, which is to be minimized, or a reward function or utility function, which is to be maximized.
Qualité logicielleEn informatique et en particulier en génie logiciel, la qualité logicielle est une appréciation globale d'un logiciel, basée sur de nombreux indicateurs. La complétude des fonctionnalités, la correction et précision des résultats, la fiabilité, la tolérance de pannes, la facilité et la flexibilité de son utilisation, la simplicité, l'extensibilité, la compatibilité et la portabilité, la facilité de correction et de transformation, la performance, la cohérence et l'intégrité des informations qu'il contient sont tous des facteurs de qualité.
Code d'effacementEn théorie de l'information, un code d'effacement est un code de correction d'erreur directe pour le canal binaire d'effacement qui transforme un message composé de symboles en un message plus long composé de symboles tel que le message original peut être retrouvé à partir d'un sous-ensemble de ces symboles. La fraction est appelé « débit du code ». La fraction , où représente le nombre de symboles requis pour restaurer le message est appelée efficacité de la réception.
Vidéothumb|Réalisateur vidéo Le terme vidéo désigne à la fois l'ensemble des techniques permettant la constitution d'un signal électrique représentant des s animées et la restitution de celles-ci ainsi que ce signal lui-même. Le signal vidéo se caractérise par différents paramètres normalisés : cadence image / trame, résolution, standard couleur éventuellement associé, composition analogique ou numérique, format d'image, données associées... Le mot « vidéo » provient du latin « video » signifiant « je vois », apocope de vidéophonie ou de vidéogramme.
Plateforme de vidéos en ligneLes plateformes de vidéo en ligne, ou streaming, apparaissent au début des années 2000 et participent à l'évolution d'Internet vers un web collaboratif où tout devient beaucoup plus accessible et intuitif. En principe, elles se basent sur un système de contenu généré par les utilisateurs, les UCG (users-generated content), ce qui les opposent catégoriquement aux médias traditionnels de diffusion d'images.
Subjective video qualitySubjective video quality is video quality as experienced by humans. It is concerned with how video is perceived by a viewer (also called "observer" or "subject") and designates their opinion on a particular video sequence. It is related to the field of Quality of Experience. Measuring subjective video quality is necessary because objective quality assessment algorithms such as PSNR have been shown to correlate poorly with subjective ratings. Subjective ratings may also be used as ground truth to develop new algorithms.
Clustered file systemA clustered file system is a which is shared by being simultaneously mounted on multiple servers. There are several approaches to clustering, most of which do not employ a clustered file system (only direct attached storage for each node). Clustered file systems can provide features like location-independent addressing and redundancy which improve reliability or reduce the complexity of the other parts of the cluster. Parallel file systems are a type of clustered file system that spread data across multiple storage nodes, usually for redundancy or performance.
Open sourceOpen source is source code that is made freely available for possible modification and redistribution. Products include permission to use the source code, design documents, or content of the product. The open-source model is a decentralized software development model that encourages open collaboration. A main principle of open-source software development is peer production, with products such as source code, blueprints, and documentation freely available to the public.