Concept

Puce d'accélération de réseaux de neurones

Résumé
Un Accélérateur d'IA pour accélérateur d'intelligence artificielle (ou NPU, Neural Processing Unit) est une catégorie de microprocesseur ou de systèmes de calculs conçu pour accélérer un réseau de neurones artificiels, accélérer des algorithmes de vision industrielle et d'apprentissage automatique pour la robotique, l'internet des objets et autres taches de calculs-intensifs ou de contrôle de capteurs. Il s'agit souvent de conceptions multicœurs et se concentrant généralement sur l'arithmétique de faible-précision, des nouvelles architectures de flux de données ou de la capacité de calcul en mémoire. Il existe plusieurs termes propres au fournisseur pour certains appareils dans cette page. Les systèmes informatiques ont souvent complété le CPU par des accélérateurs spéciaux pour des tâches spécialisées, notamment des cartes vidéo (GPU) pour les graphiques, mais aussi des cartes son pour l'audio, etc. Au fur et à mesure que l'apprentissage automatique et l'intelligence artificielle ont pris de l'ampleur, des unités matérielles spécialisées ont été développées ou adaptées à partir de produits précédents pour accélérer ces tâches. Dès 1993, les DSP ont été utilisés comme accélérateurs de réseaux neuronaux, par exemple pour accélérer les logiciels de reconnaissance optique de caractères. Dans les années 1990, on a également tenté de créer des systèmes parallèles à haut débit pour les postes de travail destinés à diverses applications, y compris les simulations de réseaux neuronaux. Les accélérateurs à base de FPGA ont également été explorés pour la première fois dans les années 1990 pour l'inférence et l'apprentissage ANNA était un accélérateur de réseau neuronal CMOS développé par Yann LeCun. Le calcul hétérogène a commencé par l'incorporation d'un certain nombre de processeurs spécialisés dans un seul système, voire une seule puce, chacun optimisé pour un type de tâche spécifique.
À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Cours associés (2)
CS-307: Introduction to multiprocessor architecture
Multiprocessors are a core component in all types of computing infrastructure, from phones to datacenters. This course will build on the prerequisites of processor design and concurrency to introduce
CS-471: Advanced multiprocessor architecture
Multiprocessors are now the defacto building blocks for all computer systems. This course will build upon the basic concepts offered in Computer Architecture I to cover the architecture and organizati
Séances de cours associées (28)
Mesure du rendement : évaluation et outils
Explore les mesures de performance, les implications de la loi d'Amdahl, l'évaluation des moyens, les défis dans les systèmes multiprocesseurs et les logiciels de serveur commercial.
Hiérarchie des mémoires GPU : Optimisation
Discute de la hiérarchie de la mémoire GPU et des stratégies d'optimisation pour un accès et une exécution efficaces de la mémoire.
Hiérarchie des mémoires GPU : Optimisation
Explore la hiérarchie de la mémoire GPU, le flux de traitement CUDA, les optimisations et l'efficacité du parallélisme sur les GPU.
Afficher plus
Publications associées (109)