Partitionnement de donnéesvignette|upright=1.2|Exemple de clustering hiérarchique. Le partitionnement de données (ou data clustering en anglais) est une méthode en analyse des données. Elle vise à diviser un ensemble de données en différents « paquets » homogènes, en ce sens que les données de chaque sous-ensemble partagent des caractéristiques communes, qui correspondent le plus souvent à des critères de proximité (similarité informatique) que l'on définit en introduisant des mesures et classes de distance entre objets.
Central processing unitA central processing unit (CPU)—also called a central processor or main processor—is the most important processor in a given computer. Its electronic circuitry executes instructions of a computer program, such as arithmetic, logic, controlling, and input/output (I/O) operations. This role contrasts with that of external components, such as main memory and I/O circuitry, and specialized coprocessors such as graphics processing units (GPUs). The form, design, and implementation of CPUs have changed over time, but their fundamental operation remains almost unchanged.
Quantification (signal)En traitement des signaux, la quantification est le procédé qui permet d'approcher un signal continu par les valeurs d'un ensemble discret d'assez petite taille. On parle aussi de quantification pour approcher un signal à valeurs dans un ensemble discret de grande taille par un ensemble plus restreint. L'application la plus courante de la quantification est la conversion analogique-numérique mais elle doit le développement de sa théorie aux problèmes de quantification pour la compression de signaux audio ou .
Théorie spectraleEn mathématiques, et plus particulièrement en analyse, une théorie spectrale est une théorie étendant à des opérateurs définis sur des espaces fonctionnels généraux la théorie élémentaire des valeurs propres et des vecteurs propres de matrices. Bien que ces idées viennent au départ du développement de l'algèbre linéaire, elles sont également liées à l'étude des fonctions analytiques, parce que les propriétés spectrales d'un opérateur sont liées à celles de fonctions analytiques sur les valeurs de son spectre.
ATI TechnologiesATI Technologies Inc. était une entreprise canadienne, basée à Markham en Ontario, active dans la production de microprocesseurs pour cartes graphiques et de chipsets pour PC, téléphones portables et consoles de jeux vidéo. Elle est rachetée par AMD en 2006, qui choisit de mettre fin à l'utilisation de la marque ATI pour ses produits au profit de la marque AMD, tout en conservant le logo Radeon. Fondée en 1985 au Canada par trois immigrants chinois (Lee Ka Lau, Benny Lau, Kwok Yuen Ho), ATI a démarré comme société OEM, en concevant des circuits intégrés graphiques pour PC.
Infographie tridimensionnelleLa synthèse d'images tridimensionnelles, souvent appelée infographie tridimensionnelle ou infographie 3D (3D pour trois dimensions : x, y, z, les trois axes qui constituent le repère orthonormé de la géométrie dans l'espace), est un ensemble de techniques notamment issues de la CAO qui permet la représentation d'objets en perspective sur un moniteur d'ordinateur. Elle est actuellement très utilisée en art numérique dans l'industrie du film, initiée par les studios Pixar, Disney, DreamWorks, Blue Sky, Illumination et ILM et, .
Data PreprocessingData preprocessing can refer to manipulation or dropping of data before it is used in order to ensure or enhance performance, and is an important step in the data mining process. The phrase "garbage in, garbage out" is particularly applicable to data mining and machine learning projects. Data collection methods are often loosely controlled, resulting in out-of-range values, impossible data combinations, and missing values, amongst other issues. Analyzing data that has not been carefully screened for such problems can produce misleading results.
ProtéomeLe protéome est l'ensemble des protéines exprimées dans une cellule, une partie d'une cellule (membranes, organites) ou un groupe de cellules (organe, organisme, groupe d'organismes) dans des conditions données et à un moment donné. Ce terme d'origine anglo-saxonne a été inventé en 1994 par Mark Wilkins de l'Université Macquarie de Sydney. Il provient de la contraction de protéine et génome car le protéome est aux protéines ce que le génome est pour les gènes.
Échantillonnage (signal)L'échantillonnage consiste à prélever les valeurs d'un signal à intervalles définis, généralement réguliers. Il produit une suite de valeurs discrètes nommées échantillons. L'application la plus courante de l'échantillonnage est aujourd'hui la numérisation d'un signal variant dans le temps, mais son principe est ancien. Depuis plusieurs siècles, on surveille les mouvements lents en inscrivant, périodiquement, les valeurs relevées dans un registre : ainsi des hauteurs d'eau des marées ou des rivières, de la quantité de pluie.
GlycomicsGlycomics is the comprehensive study of glycomes (the entire complement of sugars, whether free or present in more complex molecules of an organism), including genetic, physiologic, pathologic, and other aspects. Glycomics "is the systematic study of all glycan structures of a given cell type or organism" and is a subset of glycobiology. The term glycomics is derived from the chemical prefix for sweetness or a sugar, "glyco-", and was formed to follow the omics naming convention established by genomics (which deals with genes) and proteomics (which deals with proteins).