AdaBoostAdaBoost (ou adaptive boosting) est, en intelligence artificielle et en apprentissage automatique, un méta-algorithme de boosting introduit par Yoav Freund et Robert Schapire. Il peut être utilisé en association avec de nombreux autres types d'algorithmes d'apprentissage afin d'en améliorer les performances. Les sorties des autres algorithmes (appelés classifieurs faibles) sont combinées en une somme pondérée qui représente la sortie finale du classeur boosté.
Apprentissage automatiqueL'apprentissage automatique (en anglais : machine learning, « apprentissage machine »), apprentissage artificiel ou apprentissage statistique est un champ d'étude de l'intelligence artificielle qui se fonde sur des approches mathématiques et statistiques pour donner aux ordinateurs la capacité d'« apprendre » à partir de données, c'est-à-dire d'améliorer leurs performances à résoudre des tâches sans être explicitement programmés pour chacune. Plus largement, il concerne la conception, l'analyse, l'optimisation, le développement et l'implémentation de telles méthodes.
ImageNetImageNet est une base de données d'images annotées produit par l'organisation du même nom, à destination des travaux de recherche en vision par ordinateur. En 2016, plus de dix millions d'URLs ont été annotées à la main pour indiquer quels objets sont représentés dans l'image ; plus d'un million d'images bénéficient en plus de boîtes englobantes autour des objets. La base de données d'annotations sur des URL d'images tierces est disponible librement, ImageNet ne possédant cependant pas les images elles-mêmes.
Zetta-particuleLes zetta-particules (ou rayons cosmiques d'ultra haute énergie) sont des particules dont l'énergie estimée est de l'ordre du (, soit environ ). Les records actuels d'énergie pour une particule observée sont : par le Fly's Eye à l'Université de l'Utah, une zetta-particule de en octobre 1991. Probablement un proton ou un noyau atomique léger qui possédait une énergie équivalente à celle d'une balle de tennis frappée par un bon joueur. par l'Akeno Giant Air Shower Array (AGASA), une douche de particules résultant d'une zetta-particule de le .
ATLAS (détecteur)thumb|Le détecteur ATLAS vers la fin février 2006 ATLAS (acronyme de A Toroidal LHC ApparatuS : - dispositif instrumental toroïdal pour le LHC - qui utilise un électro-aimant toroïdal où le champ magnétique se referme sur lui-même dans l'air, sans l'aide d'un retour de fer) est l'une des du collisionneur LHC au CERN. Il s'agit d'un détecteur de particules semblable à CMS, mais de plus grande taille et de conception différente. Il a pour tâche de détecter le boson de Higgs, des particules supersymétriques (SUSY).
Moment cinétique (mécanique quantique)En mécanique quantique le moment cinétique est défini comme un opérateur vectoriel (noté ) à trois composantes, correspondant chacune aux différentes dimensions de l'espace (opérateurs « scalaires »). Celles-ci obéissent entre elles à certaines relations de commutation. Ainsi, alors qu'en mécanique classique les trois composantes du moment cinétique peuvent être simultanément mesurées, ceci est impossible dans le cadre quantique.
Algorithme d'apprentissage incrémentalEn informatique, un algorithme d'apprentissage incrémental ou incrémentiel est un algorithme d'apprentissage qui a la particularité d'être online, c'est-à-dire qui apprend à partir de données reçues au fur et à mesure du temps. À chaque incrément il reçoit des données d'entrées et un résultat, l'algorithme calcule alors une amélioration du calcul fait pour prédire le résultat à partir des données d'entrées.
Grand collisionneur électron-positronLe grand collisionneur électron-positron (en anglais : Large Electron Positron collider : LEP) était un accélérateur de particules circulaire de de circonférence, passant sous le site du CERN entre la France et la Suisse. En fonction de 1989 à 2000, le LEP demeure le plus puissant collisionneur de leptons jamais construit. vignette|Plan du complexe d'accélérateurs du CERN (le LHC remplace depuis 2008 le LEP). Les physiciens des pays membres du CERN ont développé l'idée du LEP vers la fin des années 1970.
Algorithmethumb|Algorithme de découpe d'un polygone quelconque en triangles (triangulation). Un algorithme est une suite finie et non ambiguë d'instructions et d’opérations permettant de résoudre une classe de problèmes. Le domaine qui étudie les algorithmes est appelé l'algorithmique. On retrouve aujourd'hui des algorithmes dans de nombreuses applications telles que le fonctionnement des ordinateurs, la cryptographie, le routage d'informations, la planification et l'utilisation optimale des ressources, le , le traitement de textes, la bio-informatique L' algorithme peut être mis en forme de façon graphique dans un algorigramme ou organigramme de programmation.
Apprentissage auto-superviséL'apprentissage auto-supervisé ("self-supervised learning" en anglais) (SSL) est une méthode d'apprentissage automatique. Il apprend à partir d'échantillons de données non étiquetés. Il peut être considéré comme une forme intermédiaire entre l'apprentissage supervisé et non supervisé. Il est basé sur un réseau de neurones artificiels. Le réseau de neurones apprend en deux étapes. Tout d'abord, la tâche est résolue sur la base de pseudo-étiquettes qui aident à initialiser les poids du réseau.