Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
LipidomicsLipidomics is the large-scale study of pathways and networks of cellular lipids in biological systems The word "lipidome" is used to describe the complete lipid profile within a cell, tissue, organism, or ecosystem and is a subset of the "metabolome" which also includes other major classes of biological molecules (such as amino acids, sugars, glycolysis & TCA intermediates, and nucleic acids).
User experience designUser experience design (UX design, UXD, UED, or XD) is the process of defining the experience a user would go through when interacting with a company, its services, and its products. Design decisions in UX design are often driven by research, data analysis, and test results rather than aesthetic preferences and opinions. Unlike user interface design, which focuses solely on the design of a computer interface, UX design encompasses all aspects of a user's perceived experience with a product or website, such as its usability, usefulness, desirability, brand perception, and overall performance.
Digital signal (signal processing)In the context of digital signal processing (DSP), a digital signal is a discrete time, quantized amplitude signal. In other words, it is a sampled signal consisting of samples that take on values from a discrete set (a countable set that can be mapped one-to-one to a subset of integers). If that discrete set is finite, the discrete values can be represented with digital words of a finite width. Most commonly, these discrete values are represented as fixed-point words (either proportional to the waveform values or companded) or floating-point words.
Analyse séquentielleEn statistique, l'analyse séquentielle, ou test d'hypothèse séquentiel, est une analyse statistique où la taille de l'échantillon n'est pas fixée à l'avance. Plutôt, les données sont évaluées au fur et à mesure qu'elles sont recueillies, et l'échantillonnage est arrêté selon une règle d'arrêt prédéfinie, dès que des résultats significatifs sont observés. Une conclusion peut ainsi parfois être atteinte à un stade beaucoup plus précoce que ce qui serait possible avec des tests d'hypothèse ou des estimations plus classiques, à un coût financier ou humain par conséquent inférieur.
Test driven developmentTest-Driven Development (TDD), ou développement piloté par les tests en français, est une méthode de développement de logiciel qui consiste à concevoir un logiciel par des itérations successives très courtes (ou petits pas), telles que chaque itération est accomplie en formulant un sous-problème à résoudre sous forme d'un test avant d'écrire le code source correspondant, et où le code est continuellement remanié dans une volonté de simplification. À l'origine, il s'agissait simplement d'écrire les tests avant de coder, et cette méthode s'appelait le Test-First Design.
Traceur isotopiqueLes traceurs isotopiques sont utilisés en chimie, en hydrochimie, en géologie isotopique et en biochimie afin de mieux comprendre certaines réactions chimiques, interactions ou la cinétique environnementale de certains éléments. Les processus biologiques, physiques et chimiques induisent en effet une répartition différentielle des isotopes légers et lourds, comportement appelé fractionnement isotopique. Le traçage isotopique utilise cette propriété des traceurs isotopiques.
Utilisateur finalthumb|Infirmières utilisant un logiciel informatique aux États-Unis en 1987. En informatique, dans le cadre du développement d'un logiciel, lutilisateur final est la personne qui va utiliser ledit logiciel. Les développeurs peuvent avoir de la peine à comprendre les besoins de cet utilisateur.
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
Composition isotopiqueLa composition isotopique d'un échantillon indique les proportions des divers isotopes d'un élément chimique particulier (ou de plusieurs éléments) dans cet échantillon. Les noyaux de tous les atomes d'un même élément chimique comportent le même nombre de protons (ce nombre est aussi celui des électrons présents dans le cortège électronique qui enveloppe le noyau de l'atome neutre) mais peuvent comporter différents nombres de neutrons. Les atomes qui ne diffèrent que par le nombre de neutrons sont des isotopes d'un même élément chimique.