Implication (logique)En logique mathématique, l'implication est l'un des connecteurs binaires du langage du calcul des propositions, généralement représenté par le symbole « ⇒ » et se lisant « ... implique ... », « ... seulement si ... » ou, de façon équivalente, « si ..., alors ... » comme dans la phrase « s'il pleut, alors il y a des nuages ». L'implication admet des interprétations différentes selon les différents systèmes logiques (logique classique, modale, intuitionniste, etc.).
Clé artificielleDans le domaine des bases de données, une clé artificielle (en opposition à une clé naturelle), aussi parfois appelée clé de remplacement (de l'anglais surrogate key) désigne un ensemble de données adjointes aux données d'une table pour les indexer. La génération de la clé artificielle est effectuée par le concepteur de la table. Toute clé indexant chaque ligne de manière unique est valable. Parmi les méthodes de génération courantes de clé artificielle nous pouvons citer les clés incrémentales (les lignes sont numérotées au fur et à mesure de leur introduction dans la table).
Conjonction logiqueEn logique, la conjonction est une opération mise en œuvre par le connecteur binaire et. Le connecteur et est donc un opérateur binaire qui lie deux propositions pour en faire une autre. Si on admet chacune des deux propositions, alors on admettra la proposition qui en est la conjonction. En logique mathématique, le connecteur de conjonction est noté soit &, soit ∧. En théorie de la démonstration, plus particulièrement en calcul des séquents, la conjonction est régie par des règles d'introduction et des règles d'élimination.
Data transformation (computing)In computing, data transformation is the process of converting data from one format or structure into another format or structure. It is a fundamental aspect of most data integration and data management tasks such as data wrangling, data warehousing, data integration and application integration. Data transformation can be simple or complex based on the required changes to the data between the source (initial) data and the target (final) data. Data transformation is typically performed via a mixture of manual and automated steps.
Consolidation informatiqueLa consolidation est en informatique le regroupement cohérent de données. Elle concerne généralement des données organisées logiquement ou liées entre elles. Plus spécifiquement pour les tableurs, il s’agit du regroupement de plusieurs tableaux issus de feuilles différentes (les feuilles sont des composantes des tableurs) voire de classeurs différents. La consolidation de données consiste à rassembler plusieurs données semblables afin d’obtenir un rapport plus facile à consulter que l’information brute présente sur le serveur, avec le moins de perte d’information possible.
Neuromarketingvignette|Schéma de neuromarketing : du stimulus visuel à la représentation mentale. Le neuromarketing ou la neuromercatique est l’application des neurosciences cognitives au marketing et à la communication. Cette discipline émergente cherche à mieux comprendre, prédire ou modifier les émotions, choix, goûts, aversion et comportements des consommateurs, grâce à l'identification des mécanismes neuronaux et des zones cérébrales activées ou désactivées lors d'un acte de choix, d'achat (raisonné ou impulsif) ou face à une publicité, un emballage, une page internet, etc.
ÉlectroencéphalographieL'électroencéphalographie (EEG) est une méthode d'exploration cérébrale qui mesure l'activité électrique du cerveau par des électrodes placées sur le cuir chevelu souvent représentée sous la forme d'un tracé appelé électroencéphalogramme. Comparable à l'électrocardiogramme qui permet d'étudier le fonctionnement du cœur, l'EEG est un examen indolore et non invasif qui renseigne sur l'activité neurophysiologique du cerveau au cours du temps et en particulier du cortex cérébral soit dans un but diagnostique en neurologie, soit dans la recherche en neurosciences cognitives.
Resampling (statistics)In statistics, resampling is the creation of new samples based on one observed sample. Resampling methods are: Permutation tests (also re-randomization tests) Bootstrapping Cross validation Permutation test Permutation tests rely on resampling the original data assuming the null hypothesis. Based on the resampled data it can be concluded how likely the original data is to occur under the null hypothesis.
Extract-transform-loadExtract-transform-load est une technologie informatique intergicielle permettant d'effectuer des synchronisations massives d'information d'une source de données (le plus souvent une base de données) vers une autre. Cette technologie est connue sous le sigle ETL, ou extracto-chargeur. Selon le contexte, il s'agit d'exploiter différentes fonctions, souvent combinées entre elles : « extraction », « transformation », « constitution » ou « conversion », « alimentation » ou « chargement ».
Entrepôt de donnéesvignette|redresse=1.5|Vue d'ensemble d'une architecture entrepôt de données. Le terme entrepôt de données ou EDD (ou base de données décisionnelle ; en anglais, data warehouse ou DWH) désigne une base de données utilisée pour collecter, ordonner, journaliser et stocker des informations provenant de base de données opérationnelles et fournir ainsi un socle à l'aide à la décision en entreprise. Un entrepôt de données est une base de données regroupant une partie ou l'ensemble des données fonctionnelles d'une entreprise.