La chimiométrie est l'application d'outils mathématiques, en particulier statistiques, pour obtenir le maximum d'informations à partir de données chimiques.
La chimiométrie est une discipline très appliquée. Son objectif est d'améliorer le contrôle et l'optimisation des procédés ainsi que la qualité des produits fabriqués. Son développement a été fortement accéléré par celui de la spectrométrie proche infrarouge dans les laboratoires de chimie analytique.
La chimiométrie se distingue des statistiques par le fait que :
les statistiques requièrent que des hypothèses soient vérifiées a priori. Par exemple on vérifie l’indépendance et la distribution des variables avant de réaliser une régression linéaire ;
la chimiométrie néglige ces précautions, car elles sont irréalisables sur les données qu’elle traite, mais procède à des vérifications a posteriori, sur la qualité des structures construites ou sur les performances des modèles.
La chimiométrie regroupe notamment :
les méthodes multivariées d'analyse de données ;
les méthodes de régression multivariée ;
Les méthodes de discrimination et de classification ;
les méthodes de prétraitement du signal ;
la validation des méthodes de mesure ;
les plans d'expérience.
Les plans d'expériences ont pour objectif d'organiser mathématiquement les conditions expérimentales pour choisir les plus informatives, ce qui permet de minimiser le nombre d'expériences tout en maximisant l'information obtenue.
L'une des grandes aires d'application de la chimiométrie est la spectroscopie infrarouge : proche et moyen infra-rouge (PIR/MIR) sous différentes approches (multi/hyperspectral, spatial ou non). Mais d'autres données peuvent également être étudiées : spectroscopie RMN, spectroscopie de masse, spectroscopie Raman.
Les signaux traités par la chimiométrie ont généralement en commun que chaque variable (chaque intensité à une longueur d'onde données d'un spectre) est peu sensible vis à vis du phénomène étudié, mais l'ensemble des variables peut l'être.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
La régression des moindres carrés partiels a été inventée en 1983 par Svante Wold et son père Herman Wold ; on utilise fréquemment l'abréviation anglaise régression PLS ( et/ou ). La régression PLS maximise la variance des prédicteurs (Xi) = X et maximise la corrélation entre X et la variable à expliquer Y. Cet algorithme emprunte sa démarche à la fois à l'analyse en composantes principales (ACP) et à la régression.
droite|vignette|Le paclitaxel (Taxol) est un produit naturel dérivé de l'if. Un produit naturel est un composé chimique ou une substance produite par un organisme vivant, c'est-à-dire qui se trouve dans la nature. Au sens le plus large, un produit naturel est toute substance produite par la vie. Les produits naturels peuvent également être préparés par synthèse chimique (semi-synthèse et synthèse totale) et ont joué un rôle central dans le développement du domaine de la chimie organique en fournissant des cibles synthétiques difficiles.
La métabolomique est une science très récente qui étudie l'ensemble des métabolites primaires (sucres, acides aminés, acides gras) et des métabolites secondaires dans le cas des plantes (polyphénols, flavonoïdes, alcaloïdes) présents dans une cellule, un organe ou un organisme. C'est l'équivalent de la génomique pour l'ADN. Elle utilise la spectrométrie de masse et la résonance magnétique nucléaire. Médecine : selon des chercheurs de la Harvard Medical School, les taux sanguins de cinq acides aminés (isoleucine, leucine, valine, tyrosine et phénylalanine) aideraient à prédire le risque de diabète.
Background Currently, multi-parametric prostate MRI (mpMRI) consists of a qualitative T-2, diffusion weighted, and dynamic contrast enhanced imaging. Quantification of T-2 imaging might further standardize PCa detection and support artificial intelligence ...
A key challenge across many disciplines is to extract meaningful information from data which is often obscured by noise. These datasets are typically represented as large matrices. Given the current trend of ever-increasing data volumes, with datasets grow ...
Background: Large-scale proteomic studies have to deal with unwanted variability, especially when samples originate from different centers and multiple analytical batches are needed. Such variability is typically added throughout all the steps of a clinica ...