Signification statistiquevignette|statistique En statistiques, le résultat d'études qui portent sur des échantillons de population est dit statistiquement significatif lorsqu'il semble exprimer de façon fiable un fait auquel on s'intéresse, par exemple la différence entre 2 groupes ou une corrélation entre 2 données. Dit autrement, il est alors très peu probable que ce résultat apparent soit en fait trompeur s'il n'est pas dû, par exemple, à un , trop petit ou autrement non représentatif (surtout si la population est très diverse).
Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
Dependent and independent variablesDependent and independent variables are variables in mathematical modeling, statistical modeling and experimental sciences. Dependent variables are studied under the supposition or demand that they depend, by some law or rule (e.g., by a mathematical function), on the values of other variables. Independent variables, in turn, are not seen as depending on any other variable in the scope of the experiment in question. In this sense, some common independent variables are time, space, density, mass, fluid flow rate, and previous values of some observed value of interest (e.
Principe de Huygens-FresnelLe principe de Huygens-Fresnel est une théorie ondulatoire (Fresnel disait vibratoire) de la lumière exposée par Augustin Fresnel dans son Mémoire sur la diffraction de la lumière soumis à l'Académie des Sciences de Paris en 1818. Dans ce mémoire, Fresnel a exploité les concepts exposés en 1690 par Christian Huygens dans son Traité de la lumière (chaque point du front d'onde est source d'ondelettes sphériques secondaires) et les a complétés avec le principe des interférences pour expliquer les phénomènes de propagation, diffraction et d'interférences lumineuses.
Équation différentielle ordinaireEn mathématiques, une équation différentielle ordinaire (parfois simplement appelée équation différentielle et abrégée en EDO) est une équation différentielle dont la ou les fonctions inconnues ne dépendent que d'une seule variable; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. Le terme ordinaire est utilisé par opposition au terme équation différentielle partielle (plus communément équation aux dérivées partielles, ou EDP) où la ou les fonctions inconnues peuvent dépendre de plusieurs variables.
Numerical methods for ordinary differential equationsNumerical methods for ordinary differential equations are methods used to find numerical approximations to the solutions of ordinary differential equations (ODEs). Their use is also known as "numerical integration", although this term can also refer to the computation of integrals. Many differential equations cannot be solved exactly. For practical purposes, however – such as in engineering – a numeric approximation to the solution is often sufficient. The algorithms studied here can be used to compute such an approximation.
Statistical assumptionStatistics, like all mathematical disciplines, does not infer valid conclusions from nothing. Inferring interesting conclusions about real statistical populations almost always requires some background assumptions. Those assumptions must be made carefully, because incorrect assumptions can generate wildly inaccurate conclusions. Here are some examples of statistical assumptions: Independence of observations from each other (this assumption is an especially common error). Independence of observational error from potential confounding effects.
Fonction de GreenEn mathématiques et en physique, une fonction de Green est une solution (également appelée solution élémentaire ou solution fondamentale) d'une équation différentielle linéaire à coefficients constants, ou d'une équation aux dérivées partielles linéaire à coefficients constants. Ces « fonctions » de Green, qui se trouvent être le plus souvent des distributions, ont été introduites par George Green en 1828 pour les besoins de l'électromagnétisme. Le mémoire de Green restera confidentiel jusqu'à sa republication en trois parties, à partir de 1850.
Test statistiqueEn statistiques, un test, ou test d'hypothèse, est une procédure de décision entre deux hypothèses. Il s'agit d'une démarche consistant à rejeter ou à ne pas rejeter une hypothèse statistique, appelée hypothèse nulle, en fonction d'un échantillon de données. Il s'agit de statistique inférentielle : à partir de calculs réalisés sur des données observées, on émet des conclusions sur la population, en leur rattachant des risques d'être erronées. Hypothèse nulle L'hypothèse nulle notée H est celle que l'on considère vraie a priori.
Équation de PoissonEn analyse vectorielle, l'équation de Poisson (ainsi nommée en l'honneur du mathématicien et physicien français Siméon Denis Poisson) est l'équation aux dérivées partielles elliptique du second ordre suivante : où est l'opérateur laplacien et est une distribution généralement donnée. Sur un domaine borné de et de frontière régulière, le problème de trouver à partir de et satisfaisant certaines conditions aux limites appropriées est un problème bien posé : la solution existe et est unique.