Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Modèle de donnéesEn informatique, un modèle de données est un modèle qui décrit la manière dont sont représentées les données dans une organisation métier, un système d'information ou une base de données. Le terme modèle de données peut avoir deux significations : Un modèle de données théorique, c'est-à-dire une description formelle ou un modèle mathématique. Voir aussi modèle de base de données Un modèle de données instance, c'est-à-dire qui applique un modèle de données théorique (modélisation des données) pour créer un modèle de données instance.
Information géographiqueL'information géographique est la représentation d'un objet ou d'un phénomène réel ou imaginaire, présent, passé ou futur, localisé dans l'espace à un moment donné et quelles qu'en soient la dimension et l'échelle de représentation. thumb|300px|Autre exemple, illustrant la présentation de données à une échelle plus locale que ci-dessus. On distingue habituellement deux types d'information géographique : des informations de base ou de référence (ex.
Tri par insertionEn informatique, le tri par insertion est un algorithme de tri classique. La plupart des personnes l'utilisent naturellement pour trier des cartes à jouer. En général, le tri par insertion est beaucoup plus lent que d'autres algorithmes comme le tri rapide (ou quicksort) et le tri fusion pour traiter de grandes séquences, car sa complexité asymptotique est quadratique. Le tri par insertion est cependant considéré comme l'algorithme le plus efficace sur des entrées de petite taille.
Data wranglingData wrangling, sometimes referred to as data munging, is the process of transforming and mapping data from one "raw" data form into another format with the intent of making it more appropriate and valuable for a variety of downstream purposes such as analytics. The goal of data wrangling is to assure quality and useful data. Data analysts typically spend the majority of their time in the process of data wrangling compared to the actual analysis of the data.
Fraction (mathématiques)thumb|Trois quarts de gâteau, un quart ayant été retiré. En mathématiques, une fraction est un moyen d'écrire un nombre rationnel sous la forme d'un quotient de deux entiers. La fraction a/b désigne le quotient de a par b (b≠0). Dans cette fraction, a est appelé le numérateur et b le dénominateur. Une fraction représente un partage, le dénominateur représente le nombre de parts égales faites dans une unité et son numérateur représente le nombre de parts prises dans l'unité Un nombre que l'on peut représenter par des fractions de nombres entiers est appelé nombre rationnel.
HiérarchieLe concept de hiérarchie tiré des vocables grec hieros (« sacré ») et archos (« commencement », ou « ce qui est premier ») ou plus certainement arkhê (« pouvoir », ou « commandement ») s'applique à plusieurs domaines, physiques ou moraux. Définition économique : fait qu'un individu A puisse obtenir d'un individu B qu'il serve les intérêts de son supérieur plutôt que ses intérêts propres. Étymologiquement parlant, la notion de hiérarchie est basée sur le caractère plus ou moins sacré attribué à une personne, un concept ou une chose.
Data virtualizationData virtualization is an approach to data management that allows an application to retrieve and manipulate data without requiring technical details about the data, such as how it is formatted at source, or where it is physically located, and can provide a single customer view (or single view of any other entity) of the overall data. Unlike the traditional extract, transform, load ("ETL") process, the data remains in place, and real-time access is given to the source system for the data.
Méthode expérimentaleLes méthodes expérimentales scientifiques consistent à tester la validité d'une hypothèse, en reproduisant un phénomène (souvent en laboratoire) et en faisant varier un paramètre. Le paramètre que l'on fait varier est impliqué dans l'hypothèse. Le résultat de l'expérience valide ou non l'hypothèse. La démarche expérimentale est appliquée dans les recherches dans des sciences telles que, par exemple, la biologie, la physique, la chimie, l'informatique, la psychologie, ou encore l'archéologie.
Tri de Shellvignette|Tri de Shell barres de couleur de l'algorithme Le tri de Shell ou Shell sort en anglais est un algorithme de tri. C'est une amélioration notable du tri par insertion au niveau de la vitesse d'exécution, mais ce tri n'est pas stable. Le principe de l'algorithme est simple mais l'étude du temps d'exécution est très complexe, et plusieurs problèmes sont toujours ouverts à ce sujet. Le nom vient de son inventeur (1924-2015) qui publia l'algorithme dans le numéro de de Communications of the ACM.