Analyse prédictiveL'analyse (ou logique) prédictive englobe une variété de techniques issues des statistiques, d'extraction de connaissances à partir de données et de la théorie des jeux qui analysent des faits présents et passés pour faire des hypothèses prédictives sur des événements futurs. Dans le monde des affaires, des modèles prédictifs exploitent des schémas découverts à l'intérieur des ensembles de données historiques et transactionnelles pour identifier les risques et les opportunités.
Complexité en tempsEn algorithmique, la complexité en temps est une mesure du temps utilisé par un algorithme, exprimé comme fonction de la taille de l'entrée. Le temps compte le nombre d'étapes de calcul avant d'arriver à un résultat. Habituellement, le temps correspondant à des entrées de taille n est le temps le plus long parmi les temps d’exécution des entrées de cette taille ; on parle de complexité dans le pire cas. Les études de complexité portent dans la majorité des cas sur le comportement asymptotique, lorsque la taille des entrées tend vers l'infini, et l'on utilise couramment les notations grand O de Landau.
Philosophie analytiqueL'expression « philosophie analytique » désigne un mouvement philosophique qui se fonda dans un premier temps sur la nouvelle logique contemporaine, issue des travaux de Gottlob Frege et Bertrand Russell à la fin du et au début du , pour éclairer les grandes questions philosophiques. Sa démarche s'appuie sur une analyse logique du langage cherchant à mettre en évidence les erreurs de raisonnement que celui-ci peut induire et faisant ainsi de la « clarification logique des pensées » le but de la philosophie selon le mot de Ludwig Wittgenstein dans le célèbre Tractatus logico-philosophicus.
Marxisme analytiqueLe marxisme analytique est un courant de pensée développé dans le monde anglo-saxon dans les années 1980. L'objectif du marxisme analytique est d'interpréter de manière claire et rigoureuse la pensée de Marx à l'aide d'outils utilisés traditionnellement par la philosophie analytique et les sciences sociales (ex: théorie du choix rationnel). Puisque la méthode du marxisme analytique est différente de celle utilisée traditionnellement, plusieurs interprètes de Marx accuseront ce mouvement de dénaturer Marx.
AnalyticsAnalytics is the systematic computational analysis of data or statistics. It is used for the discovery, interpretation, and communication of meaningful patterns in data. It also entails applying data patterns toward effective decision-making. It can be valuable in areas rich with recorded information; analytics relies on the simultaneous application of statistics, computer programming, and operations research to quantify performance. Organizations may apply analytics to business data to describe, predict, and improve business performance.
Très basse fréquenceLa très basse fréquence, en anglais Very low frequency (VLF), désigne la bande de radiofréquences qui s'étend de 3 kHz à (longueur d'onde de 100 à ). Les ondes VLF sont aussi appelées ondes myriamétriques (le myria- est un préfixe obsolète valant ). Les ondes VLF pénètrent dans l’eau jusqu'à une profondeur de 10 à 50 mètres, selon la fréquence et la salinité. Elles sont utilisées pour les télécommunications avec les sous-marins proches de la surface, et permettent de transmettre un débit supérieur aux ELF ou SLF, utilisées à grande profondeur.
Super basse fréquenceOn appelle super basse fréquence (SLF), Super low frequency en anglais, la bande de radiofréquences qui s'étend de 30 à 300 Hz (longueur d'onde de à km). Ces fréquences incluent les rayonnements des réseaux électriques à 50 et 60 Hz, ainsi que leurs harmoniques, et ont été utilisées en télécommunications sous-marines. Deux émetteurs de communications stratégiques existaient dans cette bande : « Sanguine » aux États-Unis à 76 hertz « ZEVS » en CEI Russie à 82 hertz.
Piège magnéto-optique350px|thumb|Montage expérimental d'un piège magnéto-optique. Un piège magnéto-optique (ou "MOT", de l'anglais magneto-optical trap) est un dispositif qui utilise à la fois le Refroidissement d'atomes par laser et le piégeage magnétique afin de produire des échantillons d'atomes neutres « froids », à des températures pouvant aller jusqu'à quelques microkelvins, à deux ou trois fois la limite de recul du refroidissement Doppler (cf. article principal).
Algorithme d'approximationEn informatique théorique, un algorithme d'approximation est une méthode permettant de calculer une solution approchée à un problème algorithmique d'optimisation. Plus précisément, c'est une heuristique garantissant à la qualité de la solution qui fournit un rapport inférieur (si l'on minimise) à une constante, par rapport à la qualité optimale d'une solution, pour toutes les instances possibles du problème.
Complexité en moyenne des algorithmesLa complexité en moyenne d'un algorithme est la quantité d'une ressource donnée, typiquement le temps, utilisée par l'algorithme lors de son exécution pour traiter une entrée tirée selon une distribution donnée. Il s'agit par conséquent d'une moyenne de la complexité, pondérée entre les différentes entrées possibles selon la distribution choisie. Le plus souvent, on ne précise pas la distribution et on utilise implicitement une distribution uniforme (i.e.