Intel Core 2Les sont une famille de microprocesseurs x86-64 grand-public, fabriqués par Intel à partir de la microarchitecture Core et existant en versions mono (« Solo »), double (« Duo ») ou quadruple cœurs (« Quad »). Couvrant une grande variété de domaines d'utilisation (ordinateurs de bureau, portables, ultra portables, stations de travail et serveurs), ils furent produits de 2006 à 2011. Leurs successeurs furent les microprocesseurs de la famille Nehalem, utilisant une microarchitecture du même nom.
Core (microarchitecture)La microarchitecture Core est une microarchitecture x86 d'Intel, qui succède en 2006 aux architectures P6 et NetBurst. Elle fut utilisée par tous les processeurs x86 produits par Intel à l'époque, depuis le processeur pour ordinateur portable jusqu'au processeur Xeon pour serveur, d'abord gravés en puis en . Les processeurs de marque Core 2 utilisent exclusivement l'architecture Core. « Core » est en anglais un nom commun signifiant « noyau » ou « cœur », et désignant en informatique l'ensemble des structures constituant un seul microprocesseur : unités de décodages, de prédiction, d'exécution, cache L1, etc.
Fidélité (psychométrie)En psychométrie, la fidélité d'un test psychologique, ou fiabilité d'un test (reliability en anglais), est une des trois grandes mesures de la qualité du test (les deux autres étant la sensibilité et la validité). Cette mesure est prise lors d'une procédure de standardisation d'un test. Avant sa publication, un test psychologique est généralement évalué sur de larges échantillons de la population. Les résultats de cette procédure sont évalués : si le test obtient de bons indices de fidélité et de validité, il est considéré comme suffisamment robuste pour être publié et utilisé.
Taux de défaillanceLe taux de défaillance, ou taux de panne, est une expression relative à la fiabilité des équipements et de chacun de leurs composants. Son symbole est la lettre grecque λ (lambda). Le taux de défaillance d'un équipement à l'instant t est la limite, si elle existe, du quotient de la probabilité conditionnelle que l'instant T de la (première) défaillance de cet équipement soit compris dans l'intervalle de temps donné [t, t + Δt] par la durée Δt de cet intervalle, lorsque Δt tend vers zéro, en supposant que l'entité soit disponible au début de l'intervalle de temps.
Power managementPower management is a feature of some electrical appliances, especially copiers, computers, computer CPUs, computer GPUs and computer peripherals such as monitors and printers, that turns off the power or switches the system to a low-power state when inactive. In computing this is known as PC power management and is built around a standard called ACPI, this supersedes APM. All recent computers have ACPI support.
Manycore processorManycore processors are special kinds of multi-core processors designed for a high degree of parallel processing, containing numerous simpler, independent processor cores (from a few tens of cores to thousands or more). Manycore processors are used extensively in embedded computers and high-performance computing. Manycore processors are distinct from multi-core processors in being optimized from the outset for a higher degree of explicit parallelism, and for higher throughput (or lower power consumption) at the expense of latency and lower single-thread performance.
Analyse de surviethumb|Exemple de courbe de survie. L'analyse de (la) survie est une branche des statistiques qui cherche à modéliser le temps restant avant la mort pour des organismes biologiques (l'espérance de vie) ou le temps restant avant l'échec ou la panne dans les systèmes artificiels, ce que l'on représente graphiquement sous la forme d'une courbe de survie. On parle aussi d'analyse de la fiabilité en ingénierie, d'analyse de la durée en économie ou d'analyse de l'histoire d'événements en sociologie.
Concordance inter-jugesIn statistics, inter-rater reliability (also called by various similar names, such as inter-rater agreement, inter-rater concordance, inter-observer reliability, inter-coder reliability, and so on) is the degree of agreement among independent observers who rate, code, or assess the same phenomenon. Assessment tools that rely on ratings must exhibit good inter-rater reliability, otherwise they are not valid tests. There are a number of statistics that can be used to determine inter-rater reliability.
Température thermodynamiqueLa température thermodynamique est une formalisation de la notion expérimentale de température et constitue l’une des grandeurs principales de la thermodynamique. Elle est intrinsèquement liée à l'entropie. Usuellement notée , la température thermodynamique se mesure en kelvins (symbole K). Encore souvent qualifiée de « température absolue », elle constitue une mesure absolue parce qu’elle traduit directement le phénomène physique fondamental qui la sous-tend : l’agitation des constituant la matière (translation, vibration, rotation, niveaux d'énergie électronique).
Température corporelle humainevignette|La température corporelle est principalement ressentie au niveau de la tête. La température corporelle humaine est maintenue constante, l’être humain étant un organisme homéotherme. On considère généralement que la température basale usuelle du corps humain est de , cependant cette valeur dépend de l'endroit du corps où est faite la mesure, de l'instrument de mesure, de l'heure de la journée et du niveau d'activité de la personne. Une température corporelle normale se situe ainsi entre et .