RisqueLe risque est la possibilité de survenue d'un événement indésirable, la probabilité d’occurrence d'un péril probable ou d'un aléa. Le risque est une notion complexe, de définitions multiples car d'usage multidisciplinaire. Néanmoins, il est un concept très usité depuis le , par exemple sous la forme de l'expression , notamment pour qualifier, dans le sens commun, un événement, un inconvénient qu'il est raisonnable de prévenir ou de redouter l'éventualité.
Régularisation (physique)En physique théorique, la régularisation est une procédure ad-hoc qui consiste à modifier une grandeur physique qui présente une singularité afin de la rendre régulière. La régularisation est par exemple abondamment utilisée en théorie quantique des champs en relation avec la procédure de renormalisation, ainsi qu'en relativité générale pour le calcul du problème à deux corps en paramétrisation post-newtonienne. Le potentiel newtonien en coordonnées sphériques s'écrit : où k est une constante.
Algorithme du gradient stochastiqueL'algorithme du gradient stochastique est une méthode de descente de gradient (itérative) utilisée pour la minimisation d'une fonction objectif qui est écrite comme une somme de fonctions différentiables. À la fois l'estimation statistique et l'apprentissage automatique s'intéressent au problème de la minimisation d'une fonction objectif qui a la forme d'une somme : où le paramètre qui minimise doit être estimé. Chacune des fonctions est généralement associée avec la -ème observation de l'ensemble des données (utilisées pour l'apprentissage).
Probabilité a prioriDans le théorème de Bayes, la probabilité a priori (ou prior) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior) correspondante qui s'appuie sur les connaissances postérieures à cette observation. Le théorème de Bayes s'énonce de la manière suivante : si . désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant .
Risk neutral preferencesIn economics and finance, risk neutral preferences are preferences that are neither risk averse nor risk seeking. A risk neutral party's decisions are not affected by the degree of uncertainty in a set of outcomes, so a risk neutral party is indifferent between choices with equal expected payoffs even if one choice is riskier. In the context of the theory of the firm, a risk neutral firm facing risk about the market price of its product, and caring only about profit, would maximize the expected value of its profit (with respect to its choices of labor input usage, output produced, etc.
Risk-seekingIn accounting, finance, and economics, a risk-seeker or risk-lover is a person who has a preference for risk. While most investors are considered risk averse, one could view casino-goers as risk-seeking. A common example to explain risk-seeking behaviour is; If offered two choices; either 50asasurething,ora50100 or nothing, a risk-seeking person would prefer the gamble. Even though the gamble and the "sure thing" have the same expected value, the preference for risk makes the gamble's expected utility for the individual much higher. Apprentissage par problèmesDans l'apprentissage par problèmes (APP), ou apprentissage par résolution de problèmes, les apprenants, regroupés par équipes, travaillent ensemble à résoudre un problème généralement proposé par l'enseignant, problème pour lequel ils n'ont reçu aucune formation particulière, de façon à faire des apprentissages de contenu et de savoir-faire, à découvrir des notions nouvelles de façon active (il s’instruit lui-même) en y étant poussé par les nécessités du problème soumis.
Probabilité a posterioriDans le théorème de Bayes, la probabilité a posteriori désigne la probabilité recalculée ou remesurée qu'un évènement ait lieu en prenant en considération une nouvelle information. Autrement dit, la probabilité a posteriori est la probabilité qu'un évènement A ait lieu étant donné que l'évènement B a eu lieu. Elle s'oppose à la probabilité a priori dans l'inférence bayésienne. La loi a priori qu'un évènement ait lieu avec vraisemblance est .
Apprentissage par renforcementEn intelligence artificielle, plus précisément en apprentissage automatique, l'apprentissage par renforcement consiste, pour un agent autonome ( robot, agent conversationnel, personnage dans un jeu vidéo), à apprendre les actions à prendre, à partir d'expériences, de façon à optimiser une récompense quantitative au cours du temps. L'agent est plongé au sein d'un environnement et prend ses décisions en fonction de son état courant. En retour, l'environnement procure à l'agent une récompense, qui peut être positive ou négative.
Aversion pour la pertevignette|Graphique de la valeur perçue du gain et de la perte par rapport à la valeur numérique stricte du gain et de la perte : Une perte de 0,05 estperc\cuecommeuneperted′utiliteˊbeaucoupplusimportantequel′augmentationd′utiliteˊd′ungainde0,05. L'aversion pour la perte est une notion issue de l'économie comportementale, elle est un biais comportemental qui fait que les humains attachent plus d'importance à une perte qu'à un gain du même montant.