Edge computingLedge computing (informatique en périphérie ou informatique en périphérie de réseau) est une méthode d'optimisation employée dans le cloud computing qui consiste à traiter les données à la périphérie du réseau, près de la source des données. Il est ainsi possible de minimiser les besoins en bande passante entre les capteurs et les centres de traitement des données en entreprenant les analyses au plus près des sources de données.
ApprentissageL’apprentissage est un ensemble de mécanismes menant à l'acquisition de savoir-faire, de savoirs ou de connaissances. L'acteur de l'apprentissage est appelé apprenant. On peut opposer l'apprentissage à l'enseignement dont le but est de dispenser des connaissances et savoirs, l'acteur de l'enseignement étant l'enseignant.
Haute fréquenceLa haute fréquence désigne un spectre de fréquences d'ondes électromagnétiques modulées dont la nature diffère en fonction du domaine auquel il s'applique. Le présent article traite du domaine des « hautes fréquences » (high frequencies en anglais, abrégé en HF) en radiocommunication qui désigne les ondes radio dont la fréquence est comprise entre et . Elles sont également nommées « ondes décamétriques » ou « ondes courtes » , en fonction de leur longueur d'onde comprise entre 10 et .
Architecture distribuéeL’architecture distribuée ou l'informatique distribuée désigne un système d'information ou un réseau pour lequel l'ensemble des ressources disponibles ne se trouvent pas au même endroit ou sur la même machine. Ce concept, dont une version peut être une combinaison de transmissions du type client-serveur, s'oppose à celui d'informatique centralisée. Internet est un exemple de réseau distribué puisqu'il ne possède aucun nœud central.
Science des donnéesLa science des données est l'étude de l’extraction automatisée de connaissance à partir de grands ensembles de données. Plus précisément, la science des données est un domaine interdisciplinaire qui utilise des méthodes, des processus, des algorithmes et des systèmes scientifiques pour extraire des connaissances et des idées à partir de nombreuses données structurées ou non . Elle est souvent associée aux données massives et à l'analyse des données.
Entrepôt de donnéesvignette|redresse=1.5|Vue d'ensemble d'une architecture entrepôt de données. Le terme entrepôt de données ou EDD (ou base de données décisionnelle ; en anglais, data warehouse ou DWH) désigne une base de données utilisée pour collecter, ordonner, journaliser et stocker des informations provenant de base de données opérationnelles et fournir ainsi un socle à l'aide à la décision en entreprise. Un entrepôt de données est une base de données regroupant une partie ou l'ensemble des données fonctionnelles d'une entreprise.
Algorithme de rechercheEn informatique, un algorithme de recherche est un type d'algorithme qui, pour un domaine, un problème de ce domaine et des critères donnés, retourne en résultat un ensemble de solutions répondant au problème. Supposons que l'ensemble de ses entrées soit divisible en sous-ensemble, par rapport à un critère donné, qui peut être, par exemple, une relation d'ordre. De façon générale, un tel algorithme vérifie un certain nombre de ces entrées et retourne en sortie une ou plusieurs des entrées visées.
Finance décentraliséeLa finance décentralisée ou DeFi (Decentralized Finance) est un moyen d'échanger, d'acheter et de vendre avec peu d'intermédiaires et donc par théorie, d'éviter les fonds bloqués ou des frais non prévus à la base ou toute autre action qui impacterait les finances des propriétaires de fonds (comme la crise des subprimes). Cela est accessible grâce en particulier à la blockchain d'Ethereum, en utilisant le peer to peer entre particulier et grâce aux protocoles Uniswap, Polygon et autres.
Information sensibleUne information sensible est une information ou une connaissance qui, si elle est révélée au public, nuirait aux entités qu'elle concerne. La perte, l'utilisation à mauvais escient, la modification ou l'accès non autorisé à une information sensible peut affecter défavorablement la vie privée d'un individu, un échange commercial, ou même la sécurité d'une nation. L'impact est relatif au niveau, à la sensibilité et à la nature de l'information. Habilitation de sécurité en France Sécurité de l'information Inf
Étude de cohorteUne étude de cohorte est une étude statistique de type longitudinal. Elle peut être ou interventionnelle, ou . Ce type d'étude scientifique est notamment utilisé en médecine et en épidémiologie (pour ces deux domaines, les bases de données collectées sont dédiées aux études de cohortes épidémiologiques), en sciences humaines et sociales, en science actuarielle et en écologie. L'une des premières études de cohorte connues fut menée par Janet Lane-Claypon en 1912 dans son étude intitulée Report to the Local Government Board upon the Available Data in Regard to the Value of Boiled Milk as a Food for Infants and Young Animals.