Nyquist rateIn signal processing, the Nyquist rate, named after Harry Nyquist, is a value (in units of samples per second or hertz, Hz) equal to twice the highest frequency (bandwidth) of a given function or signal. When the function is digitized at a higher sample rate (see ), the resulting discrete-time sequence is said to be free of the distortion known as aliasing. Conversely, for a given sample-rate the corresponding Nyquist frequency in Hz is one-half the sample-rate.
Théorème d'échantillonnageLe théorème d'échantillonnage, dit aussi théorème de Shannon ou théorème de Nyquist-Shannon, établit les conditions qui permettent l'échantillonnage d'un signal de largeur spectrale et d'amplitude limitées. La connaissance de plus de caractéristiques du signal permet sa description par un nombre inférieur d'échantillons, par un processus d'acquisition comprimée. Dans le cas général, le théorème d'échantillonnage énonce que l’échantillonnage d'un signal exige un nombre d'échantillons par unité de temps supérieur au double de l'écart entre les fréquences minimale et maximale qu'il contient.
Échantillonnage (signal)L'échantillonnage consiste à prélever les valeurs d'un signal à intervalles définis, généralement réguliers. Il produit une suite de valeurs discrètes nommées échantillons. L'application la plus courante de l'échantillonnage est aujourd'hui la numérisation d'un signal variant dans le temps, mais son principe est ancien. Depuis plusieurs siècles, on surveille les mouvements lents en inscrivant, périodiquement, les valeurs relevées dans un registre : ainsi des hauteurs d'eau des marées ou des rivières, de la quantité de pluie.
Fréquence de NyquistLa fréquence de Nyquist, du nom de l'ingénieur électronicien Harry Nyquist, est la fréquence maximale que doit contenir un signal pour permettre sa description non ambiguë par un échantillonnage à intervalles réguliers. Elle est aussi connue sous le nom de fréquence limite de repliement. Elle est égale à la moitié de la fréquence d'échantillonnage. Le théorème d'échantillonnage procède de l'analyse spectrale, qui montre que tout signal peut se décomposer en une somme de sinusoïdes.
Échantillonnage (statistiques)thumb|Exemple d'échantillonnage aléatoire En statistique, l'échantillonnage désigne les méthodes de sélection d'un sous-ensemble d'individus (un échantillon) à l'intérieur d'une population pour estimer les caractéristiques de l'ensemble de la population. Cette méthode présente plusieurs avantages : une étude restreinte sur une partie de la population, un moindre coût, une collecte des données plus rapide que si l'étude avait été réalisé sur l'ensemble de la population, la réalisation de contrôles destructifs Les résultats obtenus constituent un échantillon.
Taux de mortalitévignette|400px|Taux de mortalité dans le monde par pays pour habitants et par an en 2015. En démographie, le taux de mortalité (ou taux brut de mortalité) est le rapport entre le nombre annuel de décès et la population totale moyenne sur une période et dans un territoire donné. Le taux de mortalité sert à l'étude de la démographie, de pair avec la natalité et la fécondité. Il renseigne en particulier sur les conditions sanitaires générales d'un pays.
Ressources et consommation énergétiques mondialesLes réserves mondiales prouvées d'énergie fossile pouvaient être estimées en 2020, selon l'Agence fédérale allemande pour les sciences de la Terre et les matières premières, à , dont 55 % de charbon, 25 % de pétrole et 19 % de gaz naturel. Ces réserves assurent de production au rythme actuel ; cette durée est très variable selon le type d'énergie : pour le pétrole, pour le gaz naturel, pour le charbon. Pour l'uranium, avec les techniques actuelles, elle serait de 90 à selon les estimations, et sa durée d'utilisation pourrait se compter en siècles en ayant recours à la surgénération.
Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.
Réseau sans filUn réseau sans fil est un réseau informatique numérique qui connecte différents postes ou systèmes entre eux par ondes radio. Il peut être associé à un réseau de télécommunications pour réaliser des interconnexions à distance entre nœuds. 1896 : Guglielmo Marconi réalise les premières transmissions sans fil (télégraphie sans fil) après que Nikola Tesla a déposé les premiers brevets dans ce domaine. 1980 : invention d'Internet et des normes 802 de l'IEEE. La norme la plus utilisée actuellement pour les réseaux sans fil est la norme IEEE 802.
Théorie de la complexité (informatique théorique)vignette|Quelques classes de complexité étudiées dans le domaine de la théorie de la complexité. Par exemple, P est la classe des problèmes décidés en temps polynomial par une machine de Turing déterministe. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée ...) requis par un algorithme pour résoudre un problème algorithmique.