Data wranglingData wrangling, sometimes referred to as data munging, is the process of transforming and mapping data from one "raw" data form into another format with the intent of making it more appropriate and valuable for a variety of downstream purposes such as analytics. The goal of data wrangling is to assure quality and useful data. Data analysts typically spend the majority of their time in the process of data wrangling compared to the actual analysis of the data.
Data PreprocessingData preprocessing can refer to manipulation or dropping of data before it is used in order to ensure or enhance performance, and is an important step in the data mining process. The phrase "garbage in, garbage out" is particularly applicable to data mining and machine learning projects. Data collection methods are often loosely controlled, resulting in out-of-range values, impossible data combinations, and missing values, amongst other issues. Analyzing data that has not been carefully screened for such problems can produce misleading results.
Potentiel chimiqueEn thermodynamique, le potentiel chimique d'une espèce chimique correspond à la variation d'énergie d'un système thermodynamique due à la variation de la quantité (nombre de moles) de cette espèce dans ce système. Étroitement lié au deuxième principe de la thermodynamique, le potentiel chimique permet d'étudier la stabilité des espèces chimiques et leur tendance à changer d'état, à réagir chimiquement ou à migrer par diffusion. La fugacité et l'activité chimique, définies à partir du potentiel chimique, sont plus faciles à manipuler que celui-ci.
Algorithme d'apprentissage incrémentalEn informatique, un algorithme d'apprentissage incrémental ou incrémentiel est un algorithme d'apprentissage qui a la particularité d'être online, c'est-à-dire qui apprend à partir de données reçues au fur et à mesure du temps. À chaque incrément il reçoit des données d'entrées et un résultat, l'algorithme calcule alors une amélioration du calcul fait pour prédire le résultat à partir des données d'entrées.
Modèle atomique de RutherfordLe modèle atomique de Rutherford est un modèle physique proposé en 1911 par Ernest Rutherford pour décrire la structure d'un atome. Ce modèle fait suite au modèle atomique de Thomson (ou « modèle du plum pudding »), proposé en 1904 par Joseph John Thomson (dont Rutherford était l'élève), et qui fut invalidé à la suite de l'expérience de Rutherford ou « expérience de la feuille d'or » en 1909.
Théorie de la complexité (informatique théorique)vignette|Quelques classes de complexité étudiées dans le domaine de la théorie de la complexité. Par exemple, P est la classe des problèmes décidés en temps polynomial par une machine de Turing déterministe. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée ...) requis par un algorithme pour résoudre un problème algorithmique.
Science des donnéesLa science des données est l'étude de l’extraction automatisée de connaissance à partir de grands ensembles de données. Plus précisément, la science des données est un domaine interdisciplinaire qui utilise des méthodes, des processus, des algorithmes et des systèmes scientifiques pour extraire des connaissances et des idées à partir de nombreuses données structurées ou non . Elle est souvent associée aux données massives et à l'analyse des données.
Modèle atomique de ThomsonLe modèle atomique de Thomson (dit aussi le modèle du plum pudding) fut proposé par Joseph John Thomson, qui découvrit l'électron en 1897. Il fut proposé en 1904 avant la découverte du noyau simplifié. Dans ce modèle, l'atome est composé d'électrons plongés dans une de charge positive pour équilibrer la charge négative des électrons, comme des prunes () dans un pudding. À cette époque, Joseph John Thomson continuait à appeler « corpuscules », bien que George Stoney eut proposé la dénomination d'électrons en 1894.
Prédiction de la structure des protéinesLa prédiction de la structure des protéines est l'inférence de la structure tridimensionnelle des protéines à partir de leur séquences d'acides aminés, c'est-à-dire la prédiction de leur pliage et de leur structures secondaire et tertiaire à partir de leur structure primaire. La prédiction de la structure est fondamentalement différente du problème inverse de la conception des protéines. Elle est l'un des objectifs les plus importants poursuivis par la bioinformatique et la chimie théorique.
Protein function predictionProtein function prediction methods are techniques that bioinformatics researchers use to assign biological or biochemical roles to proteins. These proteins are usually ones that are poorly studied or predicted based on genomic sequence data. These predictions are often driven by data-intensive computational procedures. Information may come from nucleic acid sequence homology, gene expression profiles, protein domain structures, text mining of publications, phylogenetic profiles, phenotypic profiles, and protein-protein interaction.