Reconfigurable computingReconfigurable computing is a computer architecture combining some of the flexibility of software with the high performance of hardware by processing with very flexible high speed computing fabrics like field-programmable gate arrays (FPGAs). The principal difference when compared to using ordinary microprocessors is the ability to make substantial changes to the datapath itself in addition to the control flow. On the other hand, the main difference from custom hardware, i.e.
Particule βUne particule bêta est issue d'une désintégration bêta, par exemple du potassium 40. Il existe deux formes de particules (et de radioactivité) bêta. Il peut s'agir, dans le cas d'une désintégration de type β−, d'un électron, qui sera alors accompagné d'un anti-neutrino électronique. Cette désintégration est provoquée par un excès de neutrons. Une particule bêta est presque similaire à un autre électron (par exemple, ceux qu'on trouve dans le cortège électronique des atomes ), à la différence près qu'elle possède une hélicité gauche (en dehors de la radioactivité β, les électrons ont globalement une hélicité nulle).
Circuit logique programmableUn circuit logique programmable ou PLD (Programmable Logical Device), est un circuit intégré logique qui peut être programmé après sa fabrication. Il se compose de nombreuses cellules logiques élémentaires contenant des bascules logiques librement connectables. L'utilisateur doit donc programmer le circuit avant de l'utiliser. Les différentes logiques de programmation (unique, reprogrammable) et d'architecture ont conduit à la création de sous-familles dont les plus connues sont les FPGA et les CPLD.
DEC Alphathumbnail|200px|right|Un DEC Alpha . Le DEC Alpha, aussi appelé Alpha AXP, est un microprocesseur superscalaire RISC initialement développé et fabriqué par Digital Equipment Corp. (DEC), qui le commercialisa dans ses stations de travail et ses serveurs. La conception de ce processeur s’est très largement inspirée du processeur , ce dernier ayant connu de nombreux retards et ne sera finalement jamais commercialisé. Selon son fabricant Il sera notamment utilisé dans plusieurs superordinateurs Cray entre .
Particle identificationParticle identification is the process of using information left by a particle passing through a particle detector to identify the type of particle. Particle identification reduces backgrounds and improves measurement resolutions, and is essential to many analyses at particle detectors. Charged particles have been identified using a variety of techniques. All methods rely on a measurement of the momentum in a tracking chamber combined with a measurement of the velocity to determine the charged particle mass, and therefore its identity.
Accélérateur de particulesUn accélérateur de particules est un instrument qui utilise des champs électriques ou magnétiques pour amener des particules chargées électriquement à des vitesses élevées. En d'autres termes, il communique de l'énergie aux particules. On en distingue deux grandes catégories : les accélérateurs linéaires et les accélérateurs circulaires. En 2004, il y avait plus de dans le monde. Une centaine seulement sont de très grosses installations, nationales ou supranationales.
Placement-routageEn électronique, le placement-routage est le processus lors duquel les différentes parties d'un circuit électronique ou d'un circuit intégré sont automatiquement positionnées et connectées. Le problème algorithmique associé à la tâche de placement-routage est un problème d'optimisation considéré comme difficile au sens de la théorie de la complexité. Il nécessite des techniques métaheuristiques comme les algorithmes génétiques ou le recuit simulé. Les temps de calcul sont donc souvent très élevés au vu du nombre d'éléments à considérer.
Processeur graphiqueUn processeur graphique, ou GPU (de l'anglais Graphics Processing Unit), également appelé coprocesseur graphique sur certains systèmes, est une unité de calcul assurant les fonctions de calcul d'image. Il peut être présent sous forme de circuit intégré (ou puce) indépendant, soit sur une carte graphique ou sur la carte mère, ou encore intégré au même circuit intégré que le microprocesseur général (on parle d'un SoC lorsqu'il comporte toutes les puces spécialisées).
Data-driven testingData-driven testing (DDT), also known as table-driven testing or parameterized testing, is a software testing methodology that is used in the testing of computer software to describe testing done using a table of conditions directly as test inputs and verifiable outputs as well as the process where test environment settings and control are not hard-coded. In the simplest form the tester supplies the inputs from a row in the table and expects the outputs which occur in the same row.
Surapprentissagevignette|300x300px|La ligne verte représente un modèle surappris et la ligne noire représente un modèle régulier. La ligne verte classifie trop parfaitement les données d'entrainement, elle généralise mal et donnera de mauvaises prévisions futures avec de nouvelles données. Le modèle vert est donc finalement moins bon que le noir. En statistique, le surapprentissage, ou sur-ajustement, ou encore surinterprétation (en anglais « overfitting »), est une analyse statistique qui correspond trop précisément à une collection particulière d'un ensemble de données.