Epsilon d'une machineL'epsilon d'un microprocesseur (abrégé en eps) donne la limite supérieure de l'erreur d'approximation relative causé par l'arrondi des calculs de ce microprocesseur en arithmétique à virgule flottante. Cette valeur est une caractéristique de l'arithmétique des ordinateurs dans le domaine de l'analyse numérique, et par extension dans le sujet du calcul scientifique. Les valeurs d'epsilon standards suivantes s'appliquent pour le matériel implémentant les normes IEEE de calcul en virgule flottante: Une procédure d'arrondi est une procédure de choix de la représentation d'un nombre réel dans un système de numération en virgule flottante.
Intégrale de GaussEn mathématiques, une intégrale de Gauss est l'intégrale d'une fonction gaussienne sur l'ensemble des réels. Sa valeur est reliée à la constante π par la formule où α est un paramètre réel strictement positif. Elle intervient dans la définition de la loi de probabilité appelée loi gaussienne, ou loi normale. Cette formule peut être obtenue grâce à une intégrale double et un changement de variable polaire. Sa première démonstration connue est donnée par Pierre-Simon de Laplace.
Skyline matrixIn scientific computing, skyline matrix storage, or SKS, or a variable band matrix storage, or envelope storage scheme is a form of a sparse matrix storage format matrix that reduces the storage requirement of a matrix more than banded storage. In banded storage, all entries within a fixed distance from the diagonal (called half-bandwidth) are stored. In column-oriented skyline storage, only the entries from the first nonzero entry to the last nonzero entry in each column are stored.
Kahan summation algorithmIn numerical analysis, the Kahan summation algorithm, also known as compensated summation, significantly reduces the numerical error in the total obtained by adding a sequence of finite-precision floating-point numbers, compared to the obvious approach. This is done by keeping a separate running compensation (a variable to accumulate small errors), in effect extending the precision of the sum by the precision of the compensation variable.
Time-sharing system evolutionThis article covers the evolution of time-sharing systems, providing links to major early time-sharing operating systems, showing their subsequent evolution. The meaning of the term time-sharing has shifted from its original usage. From 1949 to 1960, time-sharing was used to refer to multiprogramming; it evolved to mean multi-user interactive computing. Time-sharing Time-sharing was first proposed in the mid- to late-1950s and first implemented in the early 1960s.
Random access machineEn informatique théorique, la machine RAM, pour Random Access Machine, est un modèle abstrait d'ordinateur destiné à étudier des algorithmes. une machine qui ne fait qu'effectuer des calculs sur des nombres, codés sous la forme d'une suite de symboles. Ces calculs vont donc transformer une suite de symboles en une autre. Les suites de symboles manipulées sont appelées des données, tandis que les calculs qui transforment une chaîne de « caractères » en une autre sont appelées des instructions.
Algèbre involutiveEn mathématiques, une algèbre involutive ou une algèbre à involution est une algèbre munie d'un isomorphisme sur son algèbre opposée qui est involutif, c'est-à-dire de carré égal à l'identité. Dans cet article, K désigne un anneau commutatif, et les algèbres sur un anneau commutatif sont supposées être associatives et unitaires, et les homomorphismes entre algèbres sont supposés être unitaires, c'est-à-dire envoyer 1 sur 1. Soient A une algèbre sur K et μ la multiplication de A.
Notation bra-ketLa notation bra-ket a été introduite par Paul Dirac en 1939 (on l'appelle aussi formalisme de Dirac) pour faciliter l’écriture des équations de la mécanique quantique, mais aussi pour souligner l’aspect vectoriel de l’objet représentant un état quantique. Le nom provient d'un jeu de mots avec le terme anglais bracket qui signifie « crochet de parenthèse », en l'occurrence « » et « » qui avec l'adjonction d'une barre verticale « » sont respectivement appelés « bra » et « ket ».
Matrice de VandermondeEn algèbre linéaire, une matrice de Vandermonde est une matrice avec une progression géométrique dans chaque ligne. Elle tient son nom du mathématicien français Alexandre-Théophile Vandermonde. De façon matricielle, elle se présente ainsi : Autrement dit, pour tous i et j, le coefficient en ligne i et colonne j est Remarque. Certains auteurs utilisent la transposée de la matrice ci-dessus. On considère une matrice V de Vandermonde carrée (). Elle est inversible si et seulement si les sont deux à deux distincts.
Matrice normaleEn algèbre linéaire, une matrice carrée A à coefficients complexes est une matrice normale si elle commute avec sa matrice adjointe A*, c'est-à-dire si A⋅A* = A*⋅A. Toutes les matrices hermitiennes, ou unitaires sont normales, en particulier, parmi les matrices à coefficients réels, toutes les matrices symétriques, antisymétriques ou orthogonales. Ce théorème — cas particulier du théorème de décomposition de Schur — est connu sous le nom de théorème spectral, et les éléments diagonaux de UAU sont alors les valeurs propres de A.