Interval estimationIn statistics, interval estimation is the use of sample data to estimate an interval of possible values of a parameter of interest. This is in contrast to point estimation, which gives a single value. The most prevalent forms of interval estimation are confidence intervals (a frequentist method) and credible intervals (a Bayesian method); less common forms include likelihood intervals and fiducial intervals.
Sciences numériquesLes sciences numériques (traduction de l'anglais computational sciences), autrement dénommées calcul scientifique ou informatique scientifique, ont pour objet la construction de modèles mathématiques et de méthodes d'analyse quantitative, en se basant sur l'utilisation des sciences du numérique, pour analyser et résoudre des problèmes scientifiques. Cette approche scientifique basée sur un recours massif aux modélisations informatiques et mathématiques et à la simulation se décline en : médecine numérique, biologie numérique, archéologie numérique, mécanique numérique, par exemple.
Scepticisme scientifiqueLe scepticisme scientifique, nommé aussi scepticisme rationnel ou scepticisme contemporain, est l'étude par la méthode scientifique et l'esprit critique de phénomènes dits « paranormaux » (notamment ceux étudiés par l'ufologie, la parapsychologie et la cryptozoologie), ou surnaturels (réincarnation, résurrection). Philosophiquement, elle est identifiée comme une position épistémologique ; éthiquement, elle est considérée comme une déontologie circonspecte ; pratiquement, elle est une attitude de doute cartésien vis-à-vis des allégations non étayées par des preuves empiriques ou par la reproductibilité.
Quantilevignette|Densité de probabilité d'une loi normale de moyenne μ et d'écart-type σ. On montre ici les trois quartiles Q1, Q2, Q3. L'aire sous la courbe rouge est la même dans les intervalles (−∞,Q1), (Q1,Q2), (Q2,Q3), et (Q3,+∞). La probabilité d'être dans chacun de ces intervalles est de 25%. En statistiques et en théorie des probabilités, les quantiles sont les valeurs qui divisent un jeu de données en intervalles de même probabilité égale. Il y a donc un quantile de moins que le nombre de groupes créés.
Delta-2Delta-2 est un procédé d'accélération de la convergence de suites en analyse numérique, popularisé par le mathématicien Alexander Aitken en 1926. C'est l'un des algorithmes d'accélération de la convergence les plus populaires du fait de sa simplicité et de son efficacité. Une première forme de cet algorithme a été utilisée par Seki Kōwa (fin du ) pour calculer une approximation de π par la méthode des polygones d'Archimède.