Accélération (informatique)En architecture informatique, l'accélération (speedup en anglais) est une mesure du gain de performance entre deux systèmes traitant le même problème. Plus techniquement, c'est le gain de vitesse d'exécution d'une tâche exécutée par deux architectures similaires disposant de ressources différentes. La notion d'accélération a été établie par la loi d'Amdahl, qui se penchait principalement sur le calcul parallèle. Cependant, l'accélération peut être utilisée plus généralement pour montrer l'effet sur les performances lors de n'importe quelle amélioration des ressources.
Théorie de la complexité (informatique théorique)vignette|Quelques classes de complexité étudiées dans le domaine de la théorie de la complexité. Par exemple, P est la classe des problèmes décidés en temps polynomial par une machine de Turing déterministe. La théorie de la complexité est le domaine des mathématiques, et plus précisément de l'informatique théorique, qui étudie formellement le temps de calcul, l'espace mémoire (et plus marginalement la taille d'un circuit, le nombre de processeurs, l'énergie consommée ...) requis par un algorithme pour résoudre un problème algorithmique.
FLOPSLe nombre d'opérations en virgule flottante par seconde ( ou FLOPS) est une unité de mesure de la rapidité de calcul d'un système informatique et donc d'une partie de sa performance. Les opérations en virgule flottante (additions ou multiplications) sont des opérations qui permettent des calculs représentant de très grands et de très petits nombres représentés par une mantisse et un exposant. De telles opérations prennent plus de temps de calcul que des opérations sur les nombres entiers et sont utilisées dans certains types d'applications.
Embarrassingly parallelIn parallel computing, an embarrassingly parallel workload or problem (also called embarrassingly parallelizable, perfectly parallel, delightfully parallel or pleasingly parallel) is one where little or no effort is needed to separate the problem into a number of parallel tasks. This is often the case where there is little or no dependency or need for communication between those parallel tasks, or for results between them. Thus, these are different from distributed computing problems that need communication between tasks, especially communication of intermediate results.
Sciences numériquesLes sciences numériques (traduction de l'anglais computational sciences), autrement dénommées calcul scientifique ou informatique scientifique, ont pour objet la construction de modèles mathématiques et de méthodes d'analyse quantitative, en se basant sur l'utilisation des sciences du numérique, pour analyser et résoudre des problèmes scientifiques. Cette approche scientifique basée sur un recours massif aux modélisations informatiques et mathématiques et à la simulation se décline en : médecine numérique, biologie numérique, archéologie numérique, mécanique numérique, par exemple.
Classe de complexitéEn informatique théorique, et plus précisément en théorie de la complexité, une classe de complexité est un ensemble de problèmes algorithmiques dont la résolution nécessite la même quantité d'une certaine ressource. Une classe est souvent définie comme l'ensemble de tous les problèmes qui peuvent être résolus sur un modèle de calcul M, utilisant une quantité de ressources du type R, où n, est la taille de l'entrée. Les classes les plus usuelles sont celles définies sur des machines de Turing, avec des contraintes de temps de calcul ou d'espace.
Polynôme homogèneEn mathématiques, un polynôme homogène, ou forme algébrique, est un polynôme en plusieurs indéterminées dont tous les monômes non nuls sont de même degré total. Par exemple le polynôme x + 2xy + 9xy est homogène de degré 5 car la somme des exposants est 5 pour chacun des monômes ; les polynômes homogènes de degré 2 sont les formes quadratiques. Les polynômes homogènes sont omniprésents en mathématiques et en physique théorique. Soit K un corps commutatif. Un polynôme homogène de degré d en n variables est un polynôme dans K[X, .
Réseau de processeurs massivement parallèlesA massively parallel processor array, also known as a multi purpose processor array (MPPA) is a type of integrated circuit which has a massively parallel array of hundreds or thousands of CPUs and RAM memories. These processors pass work to one another through a reconfigurable interconnect of channels. By harnessing a large number of processors working in parallel, an MPPA chip can accomplish more demanding tasks than conventional chips. MPPAs are based on a software parallel programming model for developing high-performance embedded system applications.
Division d'un polynômeEn algèbre, l'anneau K[X] des polynômes à une indéterminée X et à coefficients dans un corps commutatif K, comme celui des nombres rationnels, réels ou complexes, dispose d'une division euclidienne, qui ressemble formellement à celle des nombres entiers. Si A et B sont deux polynômes de K[X], avec B non nul, il existe un unique couple (Q, R) de polynômes de K[X] tel que : Ici l'expression deg S, si S désigne un polynôme, signifie le degré de S.
Accélération matérielleL'accélération matérielle consiste à confier une fonction spécifique effectuée par le processeur à un circuit intégré dédié qui effectuera cette fonction de façon plus efficace. Pendant longtemps, les calculs effectués par les ordinateurs grand public étaient entièrement pris en charge par le processeur central (CPU). Or, ce processeur s'avérait insuffisant dans un certain nombre de domaines. On eut l'idée de créer des circuits plus efficaces que le processeur pour ces tâches afin de le décharger.