MicroscopieLa microscopie est un ensemble de techniques d' des objets de petites dimensions. Quelle que soit la technique employée, l'appareil utilisé pour rendre possible cette observation est appelé un . Des mots grecs anciens mikros et skopein signifiant respectivement « petit » et « examiner », la microscopie désigne étymologiquement l'observation d'objets invisibles à l'œil nu. On distingue principalement trois types de microscopies : la microscopie optique, la microscopie électronique et la microscopie à sonde locale.
Test diagnostique du SARS-CoV-2Un test diagnostique du SARS-CoV-2 peut être effectué en cas de suspicion de maladie à coronavirus 2019 (Covid-19) à l'examen clinique et en complément à des examens approfondis (tomodensitométrie, etc.). Il peut être effectué par des tests de réaction en chaîne par polymérase après transcriptase inverse pour la détection de l'ARN viral (RT-PCR, pour « reverse transcription - polymerase chain reaction ») ou par des tests à base d'anticorps ELISA pour la détection des protéines du virion.
Apprentissage actifL’apprentissage actif est un modèle d’apprentissage semi-supervisé où un oracle intervient au cours du processus. Plus précisément, contrairement au cadre classique où les données sont connues et imposées, en apprentissage actif, c'est l'algorithme d'apprentissage qui demande des informations pour des données précises. Cette technique repose sur l'hypothèse que l’acquisition de données non étiquetées est beaucoup moins coûteuse que celle de données étiquetées.
Consolidation informatiqueLa consolidation est en informatique le regroupement cohérent de données. Elle concerne généralement des données organisées logiquement ou liées entre elles. Plus spécifiquement pour les tableurs, il s’agit du regroupement de plusieurs tableaux issus de feuilles différentes (les feuilles sont des composantes des tableurs) voire de classeurs différents. La consolidation de données consiste à rassembler plusieurs données semblables afin d’obtenir un rapport plus facile à consulter que l’information brute présente sur le serveur, avec le moins de perte d’information possible.
Complémentarité des trous noirsBlack hole complementarity is a conjectured solution to the black hole information paradox, proposed by Leonard Susskind, Larus Thorlacius, and Gerard 't Hooft. Ever since Stephen Hawking suggested information is lost in an evaporating black hole once it passes through the event horizon and is inevitably destroyed at the singularity, and that this can turn pure quantum states into mixed states, some physicists have wondered if a complete theory of quantum gravity might be able to conserve information with a unitary time evolution.
Optimisation (mathématiques)L'optimisation est une branche des mathématiques cherchant à modéliser, à analyser et à résoudre analytiquement ou numériquement les problèmes qui consistent à minimiser ou maximiser une fonction sur un ensemble. L’optimisation joue un rôle important en recherche opérationnelle (domaine à la frontière entre l'informatique, les mathématiques et l'économie), dans les mathématiques appliquées (fondamentales pour l'industrie et l'ingénierie), en analyse et en analyse numérique, en statistique pour l’estimation du maximum de vraisemblance d’une distribution, pour la recherche de stratégies dans le cadre de la théorie des jeux, ou encore en théorie du contrôle et de la commande.
Science des donnéesLa science des données est l'étude de l’extraction automatisée de connaissance à partir de grands ensembles de données. Plus précisément, la science des données est un domaine interdisciplinaire qui utilise des méthodes, des processus, des algorithmes et des systèmes scientifiques pour extraire des connaissances et des idées à partir de nombreuses données structurées ou non . Elle est souvent associée aux données massives et à l'analyse des données.
Entropy in thermodynamics and information theoryThe mathematical expressions for thermodynamic entropy in the statistical thermodynamics formulation established by Ludwig Boltzmann and J. Willard Gibbs in the 1870s are similar to the information entropy by Claude Shannon and Ralph Hartley, developed in the 1940s. The defining expression for entropy in the theory of statistical mechanics established by Ludwig Boltzmann and J. Willard Gibbs in the 1870s, is of the form: where is the probability of the microstate i taken from an equilibrium ensemble, and is the Boltzmann's constant.
Predictive codingIn neuroscience, predictive coding (also known as predictive processing) is a theory of brain function which postulates that the brain is constantly generating and updating a "mental model" of the environment. According to the theory, such a mental model is used to predict input signals from the senses that are then compared with the actual input signals from those senses. With the rising popularity of representation learning, the theory is being actively pursued and applied in machine learning and related fields.
Rule-based machine learningRule-based machine learning (RBML) is a term in computer science intended to encompass any machine learning method that identifies, learns, or evolves 'rules' to store, manipulate or apply. The defining characteristic of a rule-based machine learner is the identification and utilization of a set of relational rules that collectively represent the knowledge captured by the system. This is in contrast to other machine learners that commonly identify a singular model that can be universally applied to any instance in order to make a prediction.