Générateur de nombres aléatoires matérielEn informatique, un générateur de nombres aléatoires matériel (aussi appelé générateur de nombres aléatoires physique ; en anglais, hardware random number generator ou true random number generator) est un appareil qui génère des nombres aléatoires à partir d'un phénomène physique, plutôt qu'au moyen d'un programme informatique. De tels appareils sont souvent basés sur des phénomènes microscopiques qui génèrent de faibles signaux de bruit statistiquement aléatoires, tels que le bruit thermique ou l'effet photoélectrique.
Uncertainty quantificationUncertainty quantification (UQ) is the science of quantitative characterization and estimation of uncertainties in both computational and real world applications. It tries to determine how likely certain outcomes are if some aspects of the system are not exactly known. An example would be to predict the acceleration of a human body in a head-on crash with another car: even if the speed was exactly known, small differences in the manufacturing of individual cars, how tightly every bolt has been tightened, etc.
Cumulant (statistiques)En mathématiques et plus particulièrement en théorie des probabilités et en statistique, les cumulants d'une loi de probabilité sont des coefficients qui ont un rôle similaire à celui des moments. Les cumulants déterminent entièrement les moments et vice versa, c'est-à-dire que deux lois ont les mêmes cumulants si et seulement si elles ont les mêmes moments. L'espérance constitue le premier cumulant, la variance le deuxième et le troisième moment centré constitue le troisième cumulant.
Prise de décisionvignette|Lorsqu'il s'agit de prendre une décision, il est bon de savoir que des situations différentes nécessitent une approche différente. Il n'y a pas de façon unique de penser/d'agir. la plupart du temps, nous errons dans l'espace du désordre, sans savoir ce qui se passe, sans savoir comment agir. Dans ce cas, nous avons tendance à entrer dans l'espace avec lequel nous nous sentons le plus à l'aise et à commencer à agir. Lorsque vous avez trouvé le Saint Graal, la solution unique pour chaque problème, vous feriez mieux de faire attention.
Algorithme probabilisteEn algorithmique, un algorithme probabiliste, ou algorithme randomisé, est un algorithme qui utilise une source de hasard. Plus précisément le déroulement de l’algorithme fait appel à des données tirées au hasard. Par exemple à un certain point de l’exécution, on tire un bit 0 ou 1, selon la loi uniforme et si le résultat est 0, on fait une certaine action A et si c'est 1, on fait une autre action. On peut aussi tirer un nombre réel dans l'intervalle [0,1] ou un entier dans un intervalle [i..j].
Méthode du consensusDans le monde politique et technique et dans les groupes, tout ou partie des acteurs ont souvent besoin d'appuyer leurs choix et décisions stratégiques sur des « preuves » rationnelles et scientifiques. Or ils sont souvent confrontés à des incertitudes. Pour réduire cette incertitude diverses méthodes ont été au cours du élaborées et affinées, dont les conférences de consensus qui aboutissent parfois à des résultats provisoires mais plus ou moins relativement consensuels. C'est un des moyens de résolution non violente de conflits.
Référentiel (physique)En physique, il est impossible de définir une position ou un mouvement par rapport à l'espace « vide ». Un référentiel est un solide (un ensemble de points fixes entre eux) par rapport auquel on repère une position ou un mouvement. Un dispositif servant d'horloge est également nécessaire pour pouvoir qualifier le mouvement et définir la notion de vitesse. Un exemple classique de référentiel est le référentiel terrestre qui est lié à la Terre.
Échantillonnage préférentielL'échantillonnage préférentiel, en anglais importance sampling, est une méthode de réduction de la variance qui peut être utilisée dans la méthode de Monte-Carlo. L'idée sous-jacente à l'échantillonnage préférentiel, EP dans la suite, est que certaines valeurs prises par une variable aléatoire dans une simulation ont plus d'effet que d'autres sur l'estimateur recherché. Si ces valeurs importantes se réalisent plus souvent, la variance de notre estimateur peut être réduite.
Analyse de sensibilitéL’analyse de sensibilité est l'étude de la façon dont l'incertitude de la sortie d'un code ou d'un système (numérique ou autre) peut être attribuée à l'incertitude dans ses entrées. Il s'agit d'estimer des indices de sensibilité qui quantifient l'influence d'une entrée ou d'un groupe d'entrées sur la sortie. L'analyse de sensibilité peut être utile pour beaucoup d'applications: Tester la robustesse d'un modèle ou d'un système en présence d'incertitude.
Prise de décision collectiveLa prise de décision collective (en anglais, collaborative decision making ou CDM) est une situation où des individus sont rassemblés en un groupe pour résoudre des problèmes. Selon l'idée de synergie, les décisions prises collectivement ont tendance à être plus efficaces que les décisions prises individuellement. Cependant, il existe des situations dans lesquelles les décisions prises en groupe aboutissent à un mauvais jugement. En psychologie sociale, la prise de décision collective peut être définie comme .