Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Très basse fréquenceLa très basse fréquence, en anglais Very low frequency (VLF), désigne la bande de radiofréquences qui s'étend de 3 kHz à (longueur d'onde de 100 à ). Les ondes VLF sont aussi appelées ondes myriamétriques (le myria- est un préfixe obsolète valant ). Les ondes VLF pénètrent dans l’eau jusqu'à une profondeur de 10 à 50 mètres, selon la fréquence et la salinité. Elles sont utilisées pour les télécommunications avec les sous-marins proches de la surface, et permettent de transmettre un débit supérieur aux ELF ou SLF, utilisées à grande profondeur.
Kernel principal component analysisIn the field of multivariate statistics, kernel principal component analysis (kernel PCA) is an extension of principal component analysis (PCA) using techniques of kernel methods. Using a kernel, the originally linear operations of PCA are performed in a reproducing kernel Hilbert space. Recall that conventional PCA operates on zero-centered data; that is, where is one of the multivariate observations.
Super basse fréquenceOn appelle super basse fréquence (SLF), Super low frequency en anglais, la bande de radiofréquences qui s'étend de 30 à 300 Hz (longueur d'onde de à km). Ces fréquences incluent les rayonnements des réseaux électriques à 50 et 60 Hz, ainsi que leurs harmoniques, et ont été utilisées en télécommunications sous-marines. Deux émetteurs de communications stratégiques existaient dans cette bande : « Sanguine » aux États-Unis à 76 hertz « ZEVS » en CEI Russie à 82 hertz.
Analyse en composantes indépendantesL'analyse en composantes indépendantes (en anglais, independent component analysis ou ICA) est une méthode d'analyse des données (voir aussi Exploration de données) qui relève des statistiques, des réseaux de neurones et du traitement du signal. Elle est notoirement et historiquement connue en tant que méthode de séparation aveugle de source mais a par suite été appliquée à divers problèmes. Les contributions principales ont été rassemblées dans un ouvrage édité en 2010 par P.Comon et C.Jutten.
Module d'élasticitéUn module d'élasticité (ou module élastique ou module de conservation) est une grandeur intrinsèque d'un matériau, définie par le rapport d'une contrainte à la déformation élastique provoquée par cette contrainte. Les déformations étant sans dimension, les modules d'élasticité sont homogènes à une pression et leur unité SI est donc le pascal ; en pratique on utilise plutôt un multiple, le ou le . Le comportement élastique d'un matériau homogène isotrope et linéaire est caractérisé par deux modules (ou constantes) d'élasticité indépendants.
Module de cisaillementEn résistance des matériaux, le module de cisaillement, module de glissement, module de rigidité, module de Coulomb ou second coefficient de Lamé, est une grandeur physique intrinsèque à chaque matériau et qui intervient dans la caractérisation des déformations causées par des efforts de cisaillement. La définition du module de rigidité , parfois aussi noté μ, estoù (voir l'image ci-contre) est la contrainte de cisaillement, la force, l'aire sur laquelle la force agit, le déplacement latéral relatif et l'écart à l'angle droit, le déplacement latéral et enfin l'épaisseur.
Entrepôt de donnéesvignette|redresse=1.5|Vue d'ensemble d'une architecture entrepôt de données. Le terme entrepôt de données ou EDD (ou base de données décisionnelle ; en anglais, data warehouse ou DWH) désigne une base de données utilisée pour collecter, ordonner, journaliser et stocker des informations provenant de base de données opérationnelles et fournir ainsi un socle à l'aide à la décision en entreprise. Un entrepôt de données est une base de données regroupant une partie ou l'ensemble des données fonctionnelles d'une entreprise.
Gestion des donnéesLa gestion des données est une discipline de gestion qui tend à valoriser les données en tant que ressources numériques. La gestion des données permet d'envisager le développement d'architectures, de réglementations, de pratiques et de procédures qui gèrent correctement les besoins des organismes sur le plan de tout le cycle de vie des données. Les données sont, avec les traitements, l'un des deux aspects des systèmes d'information traditionnellement identifiés, et l'un ne peut aller sans l'autre pour un management du système d'information cohérent.
Fourier analysisIn mathematics, Fourier analysis (ˈfʊrieɪ,_-iər) is the study of the way general functions may be represented or approximated by sums of simpler trigonometric functions. Fourier analysis grew from the study of Fourier series, and is named after Joseph Fourier, who showed that representing a function as a sum of trigonometric functions greatly simplifies the study of heat transfer. The subject of Fourier analysis encompasses a vast spectrum of mathematics.