Classification de KöppenLa classification de Köppen est une classification des climats fondée sur les précipitations et les températures. C'est le botaniste Wladimir Peter Köppen qui l'a inventée en 1900 en combinant la carte mondiale de la végétation publiée en 1866 par Hermann Griesbach et la division du climat en cinq zones par de Candolle. C'est la plus courante des classifications climatiques dans sa version présentée par en 1961. Un très grand nombre d'études climatiques et de publications ont adopté une des versions de ce système.
Décharge luminescenteUne décharge luminescente est un plasma formé par le passage d'un courant électrique de tension allant de à plusieurs kilovolts, au travers un gaz à basse pression, tel l'argon ou un autre gaz noble. Ce phénomène est utilisé dans des produits commerciaux tels la lampe néon et l'écran à plasma, ainsi que dans les sciences physiques de l'état plasma et la chimie analytique. Les premiers appareils basés sur ce phénomène ont été construits par Heinrich Geissler à partir de 1857.
Décharge partielleDans le domaine de l'électricité, une décharge partielle (DP) est une sous l'effet d'une forte tension (HTB ou HTA). Leur présence conduit à une dégradation accélérée de l'isolation qu'elle soit liquide, par oxydation, ou solide, par érosion. Les décharges ayant des valeurs de charges très faibles, des dispositifs de mesure complexes et exempts de parasite doivent être mis en œuvre. Des méthodes de traitement du signal sont en général utilisées dans ces appareils de mesure.
Complexité paramétréeEn algorithmique, la complexité paramétrée (ou complexité paramétrique) est une branche de la théorie de la complexité qui classifie les problèmes algorithmiques selon leur difficulté intrinsèque en fonction de plusieurs paramètres sur les données en entrée ou sur la sortie. Ce domaine est étudié depuis les années 90 comme approche pour la résolution exacte de problèmes NP-complets. Cette approche est utilisée en optimisation combinatoire, notamment en algorithmique des graphes, en intelligence artificielle, en théorie des bases de données et en bio-informatique.
Atténuation du changement climatiquethumb|Consommation globale d'énergie entre 2000 et 2020. L'atténuation du changement climatique ou « atténuation du réchauffement climatique » (en anglais, climate change mitigation) regroupe les actions visant à atténuer l'ampleur du réchauffement mondial d'origine humaine par la réduction des émissions de gaz à effet de serre ou la capture et séquestration du dioxyde de carbone de l'atmosphère.
Modèle de circulation généraledroite|vignette|Modèle de circulation générale GEOS-5 (Goddard Earth Observing System Model) développé par la NASA. Un modèle de circulation générale (en anglais, general circulation model ou GCM) est un modèle climatique. Il s'appuie sur les équations de Navier-Stokes, appliquées à une sphère en rotation ainsi que sur des équations d'équilibre de la thermodynamique pour inclure les sources d'énergie (rayonnement, changement de phase). Ceci permet de simuler à la fois la circulation atmosphérique mais aussi la circulation océanique.
Justice climatiquevignette|Manifestation d'enfants pour la justice climatique. La notion de justice climatique désigne les approches éthiques, morales, de justice et politique de la question de l'égalité face au dérèglement climatique, plutôt que les approches uniquement environnementales ou physiques. Elle est aussi utilisée pour désigner les plaintes et actions juridiques déposées pour action insuffisante contre le changement climatique et pour l'adaptation. Entre 2006 et 2019, plus de relatives au climat ont été déposées dans une trentaine de pays, parfois par des enfants.
Complexité en espaceEn algorithmique, la complexité en espace est une mesure de l'espace utilisé par un algorithme, en fonction de propriétés de ses entrées. L'espace compte le nombre maximum de cases mémoire utilisées simultanément pendant un calcul. Par exemple le nombre de symboles qu'il faut conserver pour pouvoir continuer le calcul. Usuellement l'espace que l'on prend en compte lorsque l'on parle de l'espace nécessaire pour des entrées ayant des propriétés données est l'espace nécessaire le plus grand parmi ces entrées ; on parle de complexité en espace dans le pire cas.
Étude cas-témoinsUne étude cas-témoins est une étude statistique observationnelle rétrospective utilisée en épidémiologie. Les études cas-témoins sont utilisées pour mettre en évidence des facteurs qui peuvent contribuer à l'apparition d'une maladie en comparant des sujets qui ont cette maladie (les cas) avec des sujets qui n'ont pas la maladie mais qui sont similaires par ailleurs (les témoins).
Codage neuronalLe codage neuronal désigne, en neurosciences, la relation hypothétique entre le stimulus et les réponses neuronales individuelles ou globales. C'est une théorie sur l'activité électrique du système nerveux, selon laquelle les informations, par exemple sensorielles, numériques ou analogiques, sont représentées dans le cerveau par des réseaux de neurones. Le codage neuronal est lié aux concepts du souvenir, de l'association et de la mémoire sensorielle.