thumb|Protocole de fonctionnement de l'intergiciel Xgrid (2008)
Le calcul participatif est un type de calcul distribué dans lequel une personne fait don de ressources inutilisées de son ordinateur à un projet axé sur la recherche.
L'idée fondamentale sous-jacente est qu'un ordinateur de bureau moderne est suffisamment puissant pour effectuer des milliards d'opérations par seconde, mais pour la plupart des utilisateurs, seulement 10 à 15 % de sa capacité est utilisée. Les utilisations typiques telles que le traitement de texte de base ou la navigation sur le Web laissent l'ordinateur quasiment inactif la plupart du temps.
La pratique du calcul volontaire, qui remonte au milieu des années 1990, met à disposition de chercheurs une puissance de traitement substantielle à un coût minime.
En règle générale, un programme s'exécutant sur l'ordinateur d'un volontaire contacte périodiquement une application de recherche pour demander des travaux et rapporter les résultats. Un système middleware peut également servir d'intermédiaire – comme, par exemple, l'application BOINC.
Le premier projet informatique bénévole fut le Great Internet Mersenne Prime Search, lancé en janvier 1996. Il fut suivi en 1997 par distributed.net.
En 1997 et 1998, plusieurs projets de recherche universitaires ont développé des systèmes basés sur Java pour l'informatique bénévole; les exemples incluent Bayanihan, Popcorn Superweb et Charlotte.
Le terme volunteer computing a été proposé par Luis FG Sarmenta, le développeur de Bayanihan. Il est également adapté aux efforts mondiaux en matière de responsabilité sociale ou de responsabilité sociale des entreprises, comme indiqué dans la revue Harvard Business Review ou utilisé dans le forum Responsible IT.
En 1999, les projets SETI@home et Folding@home sont lancés. Ces projets ont été largement médiatisés et chacun a attiré plusieurs centaines de milliers de bénévoles.
Le tournant des années 2000 vit une explosion des créations de projet autour du calcul distribué :
Entre 1998 et 2002, plusieurs entreprises ont été créées avec des modèles commerciaux impliquant le calcul bénévole.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
From sensors,to smart phones,to the world's largest datacenters and supercomputers, parallelism & concurrency is ubiquitous in modern computing.There are also many forms of parallel & concurrent execu
This course provides insight into a broad variety of High Performance Computing (HPC) concepts and the majority of modern HPC architectures. Moreover, the student will learn to have a feeling about wh
Couvre l'évolution historique de la technologie, des accélérations informatiques, de la gestion de l'information et de l'architecture des systèmes dans le cours ICC.
Couvre la mise en œuvre d'un processeur avec transistors et met l'accent sur l'amélioration des performances grâce à diverses technologies et conceptions de circuits.
Explore les systèmes LID réalisables, les fonctions de transfert rationnelles, la stabilité, la causalité et les paramètres de mise en œuvre dans le calcul.
Le projet World Community Grid (WCG) regroupe plusieurs projets de recherche scientifique au sein d'un même projet de calcul distribué, afin de principalement lutter contre plusieurs maladies humaines. Plus largement, WCG regroupe des projets ayant un fort intérêt humanitaire. Le but premier de WCG était de créer la plus grande grille de calcul publique au monde. La plateforme logicielle utilisée est le logiciel BOINC (Berkeley Open Infrastructure for Network Computing), qui est actuellement disponible sur toutes les plates-formes (Windows, Linux, Mac OS X et FreeBSD).
On parle de grappe de serveurs, de cluster, de groupement de serveurs ou de ferme de calcul (computer cluster en anglais) pour désigner des techniques consistant à regrouper plusieurs ordinateurs indépendants appelés nœuds (node en anglais), afin de permettre une gestion globale et de dépasser les limitations d'un ordinateur pour : augmenter la disponibilité ; faciliter la montée en charge ; permettre une répartition de la charge ; faciliter la gestion des ressources (processeur, mémoire vive, disques durs,
Rosetta@home est un projet de calcul distribué ouvert le . Son objectif est déterminer la structure de protéines, afin de pouvoir élaborer des traitements contre les principales pathologies humaines. Ce projet est mené par le laboratoire du professeur de l'université de Washington. En , le projet a une puissance de calcul de 156 téraFLOPS. Rosetta@home est un projet informatique de calcul distribué qui utilise le système BOINC disponible sur les plates formes Windows, Linux, et Mac OS X.
Drawing from a fieldwork conducted at COMPUTEX Taipei, one of the largest computer expo in the world, this contribution proposes to zoom-in at the level of Graphical Processing Units (GPU) manufacturers and their interactions with computer hardware hobbyis ...
2023
, , , , , ,
Precise exceptions are a cornerstone of modern computing as they provide the abstraction of sequential instruction execution to programmers while accommodating microarchitectural optimizations. However, increasing compute capabilities in deep memory hierar ...
ACM2023
,
Artificial Neural Networks (ANN) are habitually trained via the back-propagation (BP) algorithm. This approach has been extremely successful: Current models like GPT-3 have O(10 11 ) parameters, are trained on O(10 11 ) words and produce awe-inspiring resu ...