Trouble cognitif légerLe déficit cognitif léger représente un trouble cognitif particulier, intermédiaire entre les changements cognitifs liés à l'âge (comme l'oubli bénin lié à l'âge), et les pathologies dégénératives responsables de troubles cognitifs évolutifs, en particulier la maladie d'Alzheimer. Cette entité fut mise en avant par R.C. Petersen dans les années 2000. Il se définit par une plainte cognitive (très souvent la mémoire), confirmée par des tests psychométriques (bilan neuropsychologique) qui confirment que la mémoire est moins bonne que celle d'une personne normale du même âge, mais sans conséquence sur la vie quotidienne (sans besoin d'aide).
Complexité paramétréeEn algorithmique, la complexité paramétrée (ou complexité paramétrique) est une branche de la théorie de la complexité qui classifie les problèmes algorithmiques selon leur difficulté intrinsèque en fonction de plusieurs paramètres sur les données en entrée ou sur la sortie. Ce domaine est étudié depuis les années 90 comme approche pour la résolution exacte de problèmes NP-complets. Cette approche est utilisée en optimisation combinatoire, notamment en algorithmique des graphes, en intelligence artificielle, en théorie des bases de données et en bio-informatique.
Essai cliniqueUn essai clinique, ou étude clinique, ou encore essai thérapeutique, est une étude scientifique réalisée en thérapeutique médicale humaine pour évaluer l'efficacité et la tolérance d'une méthode diagnostique ou d'un traitement. L'objectif d'un essai n'est pas d'apporter un bénéfice thérapeutique au volontaire. Le Comité international des rédacteurs de revue médicales en donne la définition suivante : . Ces études sont souvent effectuées après des études expérimentales non-cliniques (sur des modèles animaux ou cellulaires) pour confirmer leur pertinence et leur sécurité.
Validation croiséeLa validation croisée () est, en apprentissage automatique, une méthode d’estimation de fiabilité d’un modèle fondée sur une technique d’échantillonnage. Supposons posséder un modèle statistique avec un ou plusieurs paramètres inconnus, et un ensemble de données d'apprentissage sur lequel on peut apprendre (ou « entraîner ») le modèle. Le processus d'apprentissage optimise les paramètres du modèle afin que celui-ci corresponde le mieux possible aux données d'apprentissage.
Transformeur génératif pré-entraînédroite|vignette| Architecture du modèle GPT Le transformeur génératif pré-entraîné (ou GPT, de l’anglais generative pre-trained transformer) est une famille de modèles de langage généralement formée sur un grand corpus de données textuelles pour générer un texte de type humain. Il est construit en utilisant plusieurs blocs de l'architecture du transformeur. Ils peuvent être affinés pour diverses tâches de traitement du langage naturel telles que la génération de texte, la traduction de langue et la classification de texte.
Filtre passe-bandeUn filtre passe-bande est un filtre ne laissant passer qu’une bande ou intervalle de fréquences compris entre une fréquence de coupure basse et une fréquence de coupure haute du filtre. Le concept de filtre passe-bande est une transformation mathématique appliquée à des données (un signal). L'implémentation d'un filtre passe-bande peut se faire numériquement ou avec des composants électroniques. Cette transformation a pour fonction d'atténuer les fréquences à l'extérieur de la bande passante, l'intervalle de fréquences compris entre les fréquences de coupure.
Rythme alphaLe rythme alpha désigne un rythme cérébral, c'est-à-dire une oscillation électroencéphalographique (EEG) résultant de l'activité électrique du cerveau, dont la fréquence est comprise entre 7,5 et . Le rythme alpha se manifeste lorsque la personne enregistrée éveillée ferme les yeux et se détend. De par leur grande amplitude, les ondes alpha furent les premiers signaux identifiés par l'inventeur de l'EEG, Hans Berger. M. A. B. Brazier, The Electrical Activity of the Nervous System, London, Pitman, 1970. Cat
Complexité en espaceEn algorithmique, la complexité en espace est une mesure de l'espace utilisé par un algorithme, en fonction de propriétés de ses entrées. L'espace compte le nombre maximum de cases mémoire utilisées simultanément pendant un calcul. Par exemple le nombre de symboles qu'il faut conserver pour pouvoir continuer le calcul. Usuellement l'espace que l'on prend en compte lorsque l'on parle de l'espace nécessaire pour des entrées ayant des propriétés données est l'espace nécessaire le plus grand parmi ces entrées ; on parle de complexité en espace dans le pire cas.
Q-learningvignette|400x400px|Dans le Q-learning, l'agent exécute une action a en fonction de l'état s et d'une fonction Q. Il perçoit alors le nouvel état s' et une récompense r de l'environnement. Il met alors à jour la fonction Q. Le nouvel état s' devient alors l'état s, et l'apprentissage continue. En intelligence artificielle, plus précisément en apprentissage automatique, le Q-learning est un algorithme d'apprentissage par renforcement. Il ne nécessite aucun modèle initial de l'environnement.
Deep belief networkIn machine learning, a deep belief network (DBN) is a generative graphical model, or alternatively a class of deep neural network, composed of multiple layers of latent variables ("hidden units"), with connections between the layers but not between units within each layer. When trained on a set of examples without supervision, a DBN can learn to probabilistically reconstruct its inputs. The layers then act as feature detectors. After this learning step, a DBN can be further trained with supervision to perform classification.