Stabilité numériqueEn analyse numérique, une branche des mathématiques, la stabilité numérique est une propriété globale d’un algorithme numérique, une qualité nécessaire pour espérer obtenir des résultats ayant du sens. Une définition rigoureuse de la stabilité dépend du contexte. Elle se réfère à la propagation des erreurs au cours des étapes du calcul, à la capacité de l’algorithme de ne pas trop amplifier d’éventuels écarts, à la précision des résultats obtenus. Le concept de stabilité ne se limite pas aux erreurs d’arrondis et à leurs conséquences.
Classe de complexitéEn informatique théorique, et plus précisément en théorie de la complexité, une classe de complexité est un ensemble de problèmes algorithmiques dont la résolution nécessite la même quantité d'une certaine ressource. Une classe est souvent définie comme l'ensemble de tous les problèmes qui peuvent être résolus sur un modèle de calcul M, utilisant une quantité de ressources du type R, où n, est la taille de l'entrée. Les classes les plus usuelles sont celles définies sur des machines de Turing, avec des contraintes de temps de calcul ou d'espace.
Phénomène de Rungedroite|vignette|La courbe rouge est la fonction de Runge ; la courbe bleue est le polynôme interpolateur de degré 5 et la courbe verte est le polynôme interpolateur de degré 9. L'approximation est de plus en plus mauvaise. Dans le domaine mathématique de l'analyse numérique, le phénomène de Runge se manifeste dans le contexte de l'interpolation polynomiale, en particulier l'interpolation de Lagrange. Avec certaines fonctions (même analytiques), l'augmentation du nombre n de points d'interpolation ne constitue pas nécessairement une bonne stratégie d'approximation.
Calcul numérique d'une intégraleEn analyse numérique, il existe une vaste famille d’algorithmes dont le but principal est d’estimer la valeur numérique de l’intégrale définie sur un domaine particulier pour une fonction donnée (par exemple l’intégrale d’une fonction d’une variable sur un intervalle). Ces techniques procèdent en trois phases distinctes : Décomposition du domaine en morceaux (un intervalle en sous-intervalles contigus) ; Intégration approchée de la fonction sur chaque morceau ; Sommation des résultats numériques ainsi obtenus.
Quantum complexity theoryQuantum complexity theory is the subfield of computational complexity theory that deals with complexity classes defined using quantum computers, a computational model based on quantum mechanics. It studies the hardness of computational problems in relation to these complexity classes, as well as the relationship between quantum complexity classes and classical (i.e., non-quantum) complexity classes. Two important quantum complexity classes are BQP and QMA.
Trois dimensionsTrois dimensions, tridimensionnel ou 3D sont des expressions qui caractérisent l'espace qui nous entoure, tel que perçu par notre vision, en ce qui concerne la largeur, la hauteur et la profondeur. Le terme « 3D » est également (et improprement) utilisé (surtout en anglais) pour désigner la représentation en (numérique), le relief des images stéréoscopiques ou autres , et même parfois le simple effet stéréophonique, qui ne peut par construction rendre que de la 2D (il ne s'agit donc que du calcul des projections perspectives, des ombrages, des rendus de matières).
Espace à quatre dimensionsframe|L'équivalent en quatre dimensions du cube est le tesseract. On le voit ici en rotation, projeté dans l'espace usuel (les arêtes représentées comme des tubes bleus sur fond noir).|alt=Animation d'un tesseract (les arêtes représentées comme des tubes bleus sur fond noir). En mathématiques, et plus spécialement en géométrie, l'espace à quatre dimensions (souvent abrégé en 4D ; on parlera par exemple de rotations en 4D) est une extension abstraite du concept de l'espace usuel vu comme espace à trois dimensions : tandis que l'espace tridimensionnel nécessite la donnée de trois nombres, appelés dimensions, pour décrire la taille ou la position des objets, l'espace à quatre dimensions en nécessite quatre.
Complexité paramétréeEn algorithmique, la complexité paramétrée (ou complexité paramétrique) est une branche de la théorie de la complexité qui classifie les problèmes algorithmiques selon leur difficulté intrinsèque en fonction de plusieurs paramètres sur les données en entrée ou sur la sortie. Ce domaine est étudié depuis les années 90 comme approche pour la résolution exacte de problèmes NP-complets. Cette approche est utilisée en optimisation combinatoire, notamment en algorithmique des graphes, en intelligence artificielle, en théorie des bases de données et en bio-informatique.
Interpolation numériqueEn analyse numérique (et dans son application algorithmique discrète pour le calcul numérique), l'interpolation est une opération mathématique permettant de remplacer une courbe ou une fonction par une autre courbe (ou fonction) plus simple, mais qui coïncide avec la première en un nombre fini de points (ou de valeurs) donnés au départ. Suivant le type d'interpolation, outre le fait de coïncider en un nombre fini de points ou de valeurs, il peut aussi être demandé à la courbe ou à la fonction construite de vérifier des propriétés supplémentaires.
Croissance exponentiellethumb|Comparaison entre une croissance linéaire (en rouge), cubique (en bleu) et exponentielle (en vert) |300x300px La croissance exponentielle d'une quantité est son augmentation au fil du temps selon une loi exponentielle. On l'observe quand la dérivée par rapport au temps de cette quantité (c'est-à-dire son taux de variation instantané) est positive et proportionnelle à la quantité elle-même. Dans la langue courante on emploie souvent, mais improprement, le terme « croissance exponentielle » pour qualifier une augmentation simplement accélérée, quand la dérivée est elle-même croissante.