Pari de Pascalvignette|Blaise Pascal. Le pari de Pascal est un argument philosophique mis au point par Blaise Pascal, philosophe, mathématicien et physicien français du siècle. L'argument tente de prouver qu'une personne rationnelle a tout intérêt à croire en Dieu, que Dieu existe ou non. En effet, si Dieu n’existe pas, le croyant et le non-croyant ne risquent rien ou presque. Par contre, si Dieu existe, le croyant gagne le paradis tandis que le non-croyant est enfermé en enfer pour l'éternité.
Histoire intellectuelleLhistoire intellectuelle est une des branches de la recherche historique. Elle est d'apparition récente et est agitée par diverses controverses; elle s'apparente à l'histoire des idées. Alors que cette dernière s’intéresse aux idées en elles-mêmes, l’histoire intellectuelle se penche sur les idées dans leur contexte: elles émanent d'auteurs et sont situées dans un espace-temps. L’histoire intellectuelle remet donc en question des pratiques telles que l'utilisation d'un texte uniquement pour ses critères internes.
MonadologieLa Monadologie est une œuvre philosophique traitant de métaphysique écrite par le philosophe, mathématicien et savant polymathe allemand Gottfried Wilhelm Leibniz en 1714, en français. La place qu'elle occupe dans la carrière de Leibniz (qui meurt deux ans après sa rédaction), ainsi que la synthèse qu'elle opère des différents thèmes de la métaphysique leibnizienne, en font une œuvre majeure de cet auteur. Comme son titre l’indique, et comme Leibniz l’annonce dès le premier paragraphe, cet ouvrage a pour sujet la monade.
Pascalinethumb|upright=1.5|Une pascaline, signée par Pascal en 1652, au musée des arts et métiers du Conservatoire national des arts et métiers à Paris. La pascaline, initialement dénommée machine d’arithmétique puis roue pascaline, est une calculatrice mécanique inventée par Blaise Pascal et considérée comme la première machine à calculer.
Parallélisme (informatique)vignette|upright=1|Un des éléments de Blue Gene L cabinet, un des supercalculateurs massivement parallèles les plus rapides des années 2000. En informatique, le parallélisme consiste à mettre en œuvre des architectures d'électronique numérique permettant de traiter des informations de manière simultanée, ainsi que les algorithmes spécialisés pour celles-ci. Ces techniques ont pour but de réaliser le plus grand nombre d'opérations en un temps le plus petit possible.
Histoire contrefactuelleEn science de l'Histoire, l’histoire contrefactuelle (ou approche contrefactuelle) est une méthode qui consiste à imaginer des développements historiques alternatifs (par exemple la chute de la république romaine à la suite de l'invasion gauloise, et ses conséquences possibles) à partir d'une situation réelle (celle de Rome et des celtes gaulois). La question qui permet d'amorcer ce type de réflexion est : .
Calculatrice mécaniquethumb|Exemple de calculatrice mécanique : la Divisumma 24 d'Olivetti, datant de 1964. Le capot est retiré afin de faire ressortir le mécanisme de la machine. Les moteurs électriques sont à l’arrière Une calculatrice mécanique, appelée selon l'époque machine à calculer ou machine arithmétique, est une machine conçue pour simplifier et fiabiliser des opérations de calculs, et dont le fonctionnement est principalement mécanique. Le nom machine arithmétique fut choisi par Blaise Pascal, et donc utilisé à partir de 1642 et pendant tout le .
Disposition des touches d'un clavier de saisieLa disposition des touches d'un clavier de saisie permet de saisir les caractères de l'alphabet d'une langue sur une machine à écrire, un clavier d'ordinateur et sur certains appareils électroniques plus récents (téléphone portable, assistant personnel). La plupart des pays utilisent une ou plusieurs dispositions adaptées. Les dispositions de touches sont l'héritage des machines à écrire. Elles ont été adaptées aux claviers d'ordinateurs puis à d'autres périphériques.
Embarrassingly parallelIn parallel computing, an embarrassingly parallel workload or problem (also called embarrassingly parallelizable, perfectly parallel, delightfully parallel or pleasingly parallel) is one where little or no effort is needed to separate the problem into a number of parallel tasks. This is often the case where there is little or no dependency or need for communication between those parallel tasks, or for results between them. Thus, these are different from distributed computing problems that need communication between tasks, especially communication of intermediate results.
Traitement massivement parallèleEn informatique, le traitement massivement parallèle (en anglais, massively parallel processing ou massively parallel computing) est l'utilisation d'un grand nombre de processeurs (ou d'ordinateurs distincts) pour effectuer un ensemble de calculs coordonnés en parallèle (c'est-à-dire simultanément). Différentes approches ont été utilisées pour implanter le traitement massivement parallèle. Dans cette approche, la puissance de calcul d'un grand nombre d'ordinateurs distribués est utilisée de façon opportuniste chaque fois qu'un ordinateur est disponible.