Partitionnement de donnéesvignette|upright=1.2|Exemple de clustering hiérarchique. Le partitionnement de données (ou data clustering en anglais) est une méthode en analyse des données. Elle vise à diviser un ensemble de données en différents « paquets » homogènes, en ce sens que les données de chaque sous-ensemble partagent des caractéristiques communes, qui correspondent le plus souvent à des critères de proximité (similarité informatique) que l'on définit en introduisant des mesures et classes de distance entre objets.
Intel SpeedStepL'Enhanced Intel SpeedStep Technology ou EIST représente une série de technologies (incluant SpeedStep, SpeedStep et SpeedStep ) présente dans certains processeurs Intel qui autorise un changement dynamique de la fréquence d'horloge sur demande d'un logiciel. Faire fonctionner le processeur à une fréquence d'horloge très élevée permet d'obtenir de meilleures performances mais nécessite une certaine tension d'alimentation, provoquant une plus grande consommation électrique.
Regroupement hiérarchiqueDans le domaine de l'analyse et de la classification automatique de données, le regroupement hiérarchique est un partitionnement de données ou clustering, au moyen de diverses méthodes, dites « ascendantes » et « descendantes ». Les méthodes dites « descendantes » partent d’une solution générale vers une autre plus spécifique. Les méthodes de cette catégorie démarrent avec une seule classe contenant la totalité puis se divisent à chaque étape selon un critère jusqu’à l’obtention d’un ensemble de classes différentes.
Power managementPower management is a feature of some electrical appliances, especially copiers, computers, computer CPUs, computer GPUs and computer peripherals such as monitors and printers, that turns off the power or switches the system to a low-power state when inactive. In computing this is known as PC power management and is built around a standard called ACPI, this supersedes APM. All recent computers have ACPI support.
Determining the number of clusters in a data setDetermining the number of clusters in a data set, a quantity often labelled k as in the k-means algorithm, is a frequent problem in data clustering, and is a distinct issue from the process of actually solving the clustering problem. For a certain class of clustering algorithms (in particular k-means, k-medoids and expectation–maximization algorithm), there is a parameter commonly referred to as k that specifies the number of clusters to detect.
Automated machine learningAutomated machine learning (AutoML) is the process of automating the tasks of applying machine learning to real-world problems. AutoML potentially includes every stage from beginning with a raw dataset to building a machine learning model ready for deployment. AutoML was proposed as an artificial intelligence-based solution to the growing challenge of applying machine learning. The high degree of automation in AutoML aims to allow non-experts to make use of machine learning models and techniques without requiring them to become experts in machine learning.
Self-aligned gateUne self-aligned gate (qu'on pourrait traduire de l'anglais par « grille auto-alignée ») est un procédé de fabrication de transistor MOSFET dans lequel la grille, très dopée, est utilisée en tant que masque pour le dopage de la source et du drain qui l'entourent. Grâce à cette technique, la grille chevauche toujours les bords de la source et du drain, ce qui est indispensable au bon fonctionnement du transistor MOSFET. La technique de self-aligned gate est née en 1966, et fut brevetée aux États-Unis en . Fa
TOP500Le TOP500 est un projet de classification, par ordre décroissant, des 500 superordinateurs les plus puissants au monde. Depuis , le projet met à jour sa liste tous les six mois : en juin lors de l'International Supercomputing Conference, qui a lieu en Allemagne ; en novembre pendant l'ACM/IEEE Supercomputing Conference, qui a lieu aux États-Unis et est organisée par l'IEEE et l'Association for Computing Machinery.
Algorithme d'apprentissage incrémentalEn informatique, un algorithme d'apprentissage incrémental ou incrémentiel est un algorithme d'apprentissage qui a la particularité d'être online, c'est-à-dire qui apprend à partir de données reçues au fur et à mesure du temps. À chaque incrément il reçoit des données d'entrées et un résultat, l'algorithme calcule alors une amélioration du calcul fait pour prédire le résultat à partir des données d'entrées.
Reconfigurable computingReconfigurable computing is a computer architecture combining some of the flexibility of software with the high performance of hardware by processing with very flexible high speed computing fabrics like field-programmable gate arrays (FPGAs). The principal difference when compared to using ordinary microprocessors is the ability to make substantial changes to the datapath itself in addition to the control flow. On the other hand, the main difference from custom hardware, i.e.