Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
Partitionnement de donnéesvignette|upright=1.2|Exemple de clustering hiérarchique. Le partitionnement de données (ou data clustering en anglais) est une méthode en analyse des données. Elle vise à diviser un ensemble de données en différents « paquets » homogènes, en ce sens que les données de chaque sous-ensemble partagent des caractéristiques communes, qui correspondent le plus souvent à des critères de proximité (similarité informatique) que l'on définit en introduisant des mesures et classes de distance entre objets.
Structure tertiaireEn biochimie, la structure tertiaire ou tridimensionnelle est le repliement dans l'espace d'une chaîne polypeptidique. Ce repliement donne sa fonctionnalité à la protéine, notamment par la formation du site actif des enzymes. . La structure tertiaire correspond au degré d'organisation supérieur aux hélices α ou aux feuillets β. Ces protéines possèdent des structures secondaires associées le long de la chaîne polypeptidique. Le repliement et la stabilisation de protéines à structure tertiaire dépend de plusieurs types de liaisons faibles qui stabilisent l'édifice moléculaire.
Type UnixUn système d’exploitation de type Unix (en Unix-like) est un système d’exploitation qui se comporte d’une façon semblable à un système Unix, bien que n’étant pas nécessairement conforme ou certifié par une quelconque version de la Single UNIX specification. Le terme peut regrouper les systèmes d’exploitations libres ou open source inspirés par Unix des laboratoires Bell ou conçu pour imiter ses fonctionnalités.
Philosophie d'UnixLa philosophie d'Unix est un ensemble de normes et une approche du développement de logiciels basée sur l'expérience des principaux développeurs du système d'exploitation Unix. Douglas McIlroy, l'inventeur des tuyaux Unix (Unix pipes en anglais) et l’un des fondateurs de la tradition d'Unix, résume la philosophie comme suit : Ce qui est souvent résumé par : « Ne faire qu'une seule chose, et la faire bien. ».
Analyse séquentielleEn statistique, l'analyse séquentielle, ou test d'hypothèse séquentiel, est une analyse statistique où la taille de l'échantillon n'est pas fixée à l'avance. Plutôt, les données sont évaluées au fur et à mesure qu'elles sont recueillies, et l'échantillonnage est arrêté selon une règle d'arrêt prédéfinie, dès que des résultats significatifs sont observés. Une conclusion peut ainsi parfois être atteinte à un stade beaucoup plus précoce que ce qui serait possible avec des tests d'hypothèse ou des estimations plus classiques, à un coût financier ou humain par conséquent inférieur.
Sequence analysisIn bioinformatics, sequence analysis is the process of subjecting a DNA, RNA or peptide sequence to any of a wide range of analytical methods to understand its features, function, structure, or evolution. Methodologies used include sequence alignment, searches against biological databases, and others. Since the development of methods of high-throughput production of gene and protein sequences, the rate of addition of new sequences to the databases increased very rapidly.
Correlation clusteringClustering is the problem of partitioning data points into groups based on their similarity. Correlation clustering provides a method for clustering a set of objects into the optimum number of clusters without specifying that number in advance. Cluster analysis In machine learning, correlation clustering or cluster editing operates in a scenario where the relationships between the objects are known instead of the actual representations of the objects.
Unix warsThe Unix wars were struggles between vendors to set a standard for the Unix operating system in the late 1980s and early 1990s. Although AT&T Corporation created Unix, by the 1980s, the University of California, Berkeley Computer Systems Research Group was the leading non-commercial Unix developer. In the mid-1980s, the three common versions of Unix were AT&T's System III, the basis of Microsoft's Xenix and the IBM-endorsed PC/IX, among others; AT&T's System V, which it sought to establish as the new Unix standard; and the Berkeley Software Distribution (BSD).
Protein designProtein design is the rational design of new protein molecules to design novel activity, behavior, or purpose, and to advance basic understanding of protein function. Proteins can be designed from scratch (de novo design) or by making calculated variants of a known protein structure and its sequence (termed protein redesign). Rational protein design approaches make protein-sequence predictions that will fold to specific structures.