Complexité en espaceEn algorithmique, la complexité en espace est une mesure de l'espace utilisé par un algorithme, en fonction de propriétés de ses entrées. L'espace compte le nombre maximum de cases mémoire utilisées simultanément pendant un calcul. Par exemple le nombre de symboles qu'il faut conserver pour pouvoir continuer le calcul. Usuellement l'espace que l'on prend en compte lorsque l'on parle de l'espace nécessaire pour des entrées ayant des propriétés données est l'espace nécessaire le plus grand parmi ces entrées ; on parle de complexité en espace dans le pire cas.
Classe de complexitéEn informatique théorique, et plus précisément en théorie de la complexité, une classe de complexité est un ensemble de problèmes algorithmiques dont la résolution nécessite la même quantité d'une certaine ressource. Une classe est souvent définie comme l'ensemble de tous les problèmes qui peuvent être résolus sur un modèle de calcul M, utilisant une quantité de ressources du type R, où n, est la taille de l'entrée. Les classes les plus usuelles sont celles définies sur des machines de Turing, avec des contraintes de temps de calcul ou d'espace.
Régulation de l'expression des gènesLa régulation de l'expression des gènes désigne l'ensemble de mécanismes mis en œuvre pour passer de l'information génétique incluse dans une séquence d'ADN à un produit de gène fonctionnel (ARN ou protéine). Elle a pour effet de moduler, d'augmenter ou de diminuer la quantité des produits de l'expression des gènes (ARN, protéines). Toutes les étapes allant de la séquence d'ADN au produit final peuvent être régulées, que ce soit la transcription, la maturation des ARNm, la traduction des ARNm ou la stabilité des ARNm et protéines.
Théorie de l'estimationEn statistique, la théorie de l'estimation s'intéresse à l'estimation de paramètres à partir de données empiriques mesurées ayant une composante aléatoire. Les paramètres décrivent un phénomène physique sous-jacent tel que sa valeur affecte la distribution des données mesurées. Un estimateur essaie d'approcher les paramètres inconnus à partir des mesures.
Maximum de vraisemblanceEn statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
Loi demi-normaleEn théorie des probabilités et en statistique, la loi demi-normale est un cas particulier de la loi normale repliée. Soit une variable aléatoire de loi normale centrée, , alors est de loi demi-normale. En particulier, la loi demi-normale est une loi normale repliée de paramètre 0 et . La densité de probabilité de la loi demi-normale est donnée par : L'espérance est : En faisant le changement de variable : , utile lorsque est proche de zéro, la densité prend la forme : L'espérance est alors : La fonction de répartition de la loi demi-normale est donnée par : En utilisant le changement de variable , la fonction de répartition peut s'écrire où erf est la fonction d'erreur.
Cancer de la peauLes cancers de la peau sont des tumeurs malignes d'histologie variée, développées aux dépens des cellules de la peau. On distingue principalement : les épithéliomes, dérivant du tissu épithélial, eux-mêmes composés de deux grands groupes de carcinomes : le carcinome basocellulaire et le carcinome spinocellulaire ; les mélanomes, développés à partir des cellules næviques, qui peuvent résulter de la transformation d'un nævus ou se développer de novo ; et les sarcomes, développés à partir du tissu conjonctif.
FuturologieLa futurologie est un domaine interdisciplinaire qui agrège des données classées par des méthodes tant empiriques que logiques, en vue d'analyser des tendances et d'esquisser des scénarios plausibles de l’avenir. Elle examine les sources, les desseins et causes de changement et de stabilité pour formuler des prédictions. La futurologie est censée procéder à partir des données technologiques, économiques ou sociales du passé et du présent, et affirme se fonder sur des techniques (simulation, statistique) et des modèles scientifiques (science des systèmes, écologie).
Argument de l'ApocalypseL’argument de l’Apocalypse est une énigme mettant en jeu les probabilités conditionnelles sur l'extinction de l'humanité. Elle est célèbre pour avoir résisté pendant de longues années à toutes les analyses et elle suscite encore aujourd'hui de nombreuses controverses. L'argument de l'Apocalypse (en anglais : « The Doomsday Argument »), créé en 1983, est attribué à l'astrophysicien Brandon Carter. On raconte qu’il fut tellement surpris par sa propre énigme qu’il a renoncé au dernier moment à la présenter en public lors d’une conférence.
Computational complexityIn computer science, the computational complexity or simply complexity of an algorithm is the amount of resources required to run it. Particular focus is given to computation time (generally measured by the number of needed elementary operations) and memory storage requirements. The complexity of a problem is the complexity of the best algorithms that allow solving the problem. The study of the complexity of explicitly given algorithms is called analysis of algorithms, while the study of the complexity of problems is called computational complexity theory.