Intelligence artificiellevignette|redresse=0.8|Les assistants personnels intelligents sont l'une des applications concrètes de l'intelligence artificielle dans les années 2010. L'intelligence artificielle (IA) est un ensemble de théories et de techniques visant à réaliser des machines capables de simuler l'intelligence humaine. Souvent classée dans le groupe des mathématiques et des sciences cognitives, elle fait appel à la neurobiologie computationnelle (particulièrement aux réseaux neuronaux) et à la logique mathématique (partie des mathématiques et de la philosophie).
Sciences cognitivesthumb|283x283px|Les six disciplines scientifiques constituant les sciences cognitives et leurs liens interdisciplinaires, par l'un des pères fondateurs du domaine, G. A. Miller. Les traits pleins symbolisent les disciplines entre lesquelles existaient déjà des liens scientifiques à la naissance des sciences cognitives ; en pointillés, les disciplines entre lesquelles des interfaces se sont développées depuis lors.
Address generation unitThe address generation unit (AGU), sometimes also called address computation unit (ACU), is an execution unit inside central processing units (CPUs) that calculates addresses used by the CPU to access main memory. By having address calculations handled by separate circuitry that operates in parallel with the rest of the CPU, the number of CPU cycles required for executing various machine instructions can be reduced, bringing performance improvements.
Synaptic weightIn neuroscience and computer science, synaptic weight refers to the strength or amplitude of a connection between two nodes, corresponding in biology to the amount of influence the firing of one neuron has on another. The term is typically used in artificial and biological neural network research. In a computational neural network, a vector or set of inputs and outputs , or pre- and post-synaptic neurons respectively, are interconnected with synaptic weights represented by the matrix , where for a linear neuron where the rows of the synaptic matrix represent the vector of synaptic weights for the output indexed by .
Caffe (software)Caffe (Convolutional Architecture for Fast Feature Embedding) is a deep learning framework, originally developed at University of California, Berkeley. It is open source, under a BSD license. It is written in C++, with a Python interface. Yangqing Jia created the Caffe project during his PhD at UC Berkeley. It is currently hosted on GitHub. Caffe supports many different types of deep learning architectures geared towards and . It supports CNN, RCNN, LSTM and fully-connected neural network designs.
Fugaku 415-PFLOPSFugaku 415-PFLOPS est un superordinateur japonais, développé par Fujitsu pour le compte de l'institut scientifique japonais RIKEN. En juin 2020, il est présenté comme le plus puissant supercalculateur au monde, atteignant les 415 pétaFLOPS, soit 2,8 fois plus que l'ancien détenteur du titre, Summit d'IBM. Il a conservé ensuite ce titre à trois reprises consécutives, en novembre 2020, puis en juin et novembre 2021. Il utilise à la fois un noyau léger McKernel et le noyau Linux basé sur une distribution GNU/Linux Red Hat Linux 8 pour son système.