Tensor Processing Unitvignette|Un Tensor Processing Unit 3.0 datant de mai 2016 Un Tensor Processing Unit (TPU, unité de traitement de tenseur) est un circuit intégré spécifique pour une application (ASIC), développé par Google spécifiquement pour accélérer les systèmes d'intelligence artificielle par réseaux de neurones. Les TPU ont été annoncés en 2016 au Google I/O, lorsque la société a déclaré les utiliser dans leurs centres de données depuis plus d'un an.
TensorFlowTensorFlow est un outil open source d'apprentissage automatique développé par Google. Le code source a été ouvert le par Google et publié sous licence Apache. Il est fondé sur l'infrastructure DistBelief, initiée par Google en 2011, et est doté d'une interface pour Python, Julia et R TensorFlow est l'un des outils les plus utilisés en IA dans le domaine de l'apprentissage machine. À partir de 2011, Google Brain a développé un outil propriétaire d'apprentissage automatique fondé sur l'apprentissage profond.
Loi log-normaleEn théorie des probabilités et statistique, une variable aléatoire X est dite suivre une loi log-normale de paramètres et si la variable suit une loi normale d'espérance et de variance . Cette loi est parfois appelée loi de Galton. Elle est habituellement notée dans le cas d'une seule variable ou dans un contexte multidimensionnel. Une variable peut être modélisée par une loi log-normale si elle est le résultat de la multiplication d'un grand nombre de petits facteurs indépendants.
Deeplearning4jEclipse Deeplearning4j is a programming library written in Java for the Java virtual machine (JVM). It is a framework with wide support for deep learning algorithms. Deeplearning4j includes implementations of the restricted Boltzmann machine, deep belief net, deep autoencoder, stacked denoising autoencoder and recursive neural tensor network, word2vec, doc2vec, and GloVe. These algorithms all include distributed parallel versions that integrate with Apache Hadoop and Spark.
Moment d'inertieLe moment d'inertie d'un système physique est une grandeur qui caractérise son inertie vis-à-vis des mouvements de rotation, comme sa masse caractérise son inertie vis-à-vis des mouvements de translation. Il dépend de la valeur et de la répartition des masses au sein du système et a pour dimension (produit d'une masse par le carré d'une longueur) ; il s'exprime donc en dans le Système international d'unités.
Analyse numériqueL’analyse numérique est une discipline à l'interface des mathématiques et de l'informatique. Elle s’intéresse tant aux fondements qu’à la mise en pratique des méthodes permettant de résoudre, par des calculs purement numériques, des problèmes d’analyse mathématique. Plus formellement, l’analyse numérique est l’étude des algorithmes permettant de résoudre numériquement par discrétisation les problèmes de mathématiques continues (distinguées des mathématiques discrètes).
Équation différentielle stochastiqueUne équation différentielle stochastique (EDS) est une généralisation de la notion d'équation différentielle prenant en compte un terme de bruit blanc. Les EDS permettent de modéliser des trajectoires aléatoires, tels des cours de bourse ou les mouvements de particules soumises à des phénomènes de diffusion. Elles permettent aussi de traiter théoriquement ou numériquement des problèmes issus de la théorie des équations aux dérivées partielles.
Intégrale elliptiqueLes intégrales elliptiques interviennent dans de nombreux problèmes de physique mathématique : comme par exemple, le calcul de la période d'un pendule aux grandes amplitudes et plus généralement les formes d'équilibre ellipsoïdales des corps en rotation autour d'un axe (planètes, étoiles, goutte d'eau, noyau atomique,...). Une intégrale elliptique est une intégrale de la forme où est une fonction rationnelle à deux variables, est une fonction polynomiale de degré 3 ou 4 avec des racines simples et est une constante.
Série de Taylorthumb|Brook Taylor, dont la série porte le nom. En mathématiques, et plus précisément en analyse, la série de Taylor au point d'une fonction (réelle ou complexe) indéfiniment dérivable en ce point, appelée aussi le développement en série de Taylor de en , est une série entière approchant la fonction autour de , construite à partir de et de ses dérivées successives en . Elles portent le nom de Brook Taylor, qui les a introduites en 1715.
Stabilité numériqueEn analyse numérique, une branche des mathématiques, la stabilité numérique est une propriété globale d’un algorithme numérique, une qualité nécessaire pour espérer obtenir des résultats ayant du sens. Une définition rigoureuse de la stabilité dépend du contexte. Elle se réfère à la propagation des erreurs au cours des étapes du calcul, à la capacité de l’algorithme de ne pas trop amplifier d’éventuels écarts, à la précision des résultats obtenus. Le concept de stabilité ne se limite pas aux erreurs d’arrondis et à leurs conséquences.