Langue OSVUne langue OSV est, en typologie syntaxique, une langue dont les phrases suivent généralement un ordre -sujet-verbe. Malgré sa rareté, cette syntaxe a été rendue célèbre dans la culture populaire grâce à Yoda, personnage de fiction qui parle de cette façon dans l'univers Star Wars. Cet ordre est le plus rare. Les chiffres peuvent varier selon les sources, notamment car les classifications linguistiques ne sont pas toujours consensuelles. Dans son étude sur 402 langues publiée en 1986, le linguiste Russell S.
Stable DiffusionStable Diffusion est un modèle d'apprentissage automatique permettant de générer des images numériques photoréalistes à partir de descriptions en langage naturel. Le modèle peut également être utilisé pour d'autres tâches, comme la génération d'une image améliorée à partir d'une esquisse et d'une description textuelle. Il peut fonctionner sur la plupart des matériels grand public équipés d'une carte graphique même de moyenne gamme et est salué par PC World comme « la prochaine application phare pour votre ordinateur ».
HyperparamètreDans l'apprentissage automatique, un hyperparamètre est un paramètre dont la valeur est utilisée pour contrôler le processus d'apprentissage. En revanche, les valeurs des autres paramètres (généralement la pondération de nœuds) sont obtenues par apprentissage. Les hyperparamètres peuvent être classifiés comme étant des hyperparamètres de modèle, qui ne peuvent pas être déduits en ajustant la machine à l'ensemble d'entraînement parce qu'ils s'appliquent à la tâche de la sélection du modèle, ou des hyperparamètres d'algorithmes, qui en principe n'ont aucune influence sur la performance du modèle mais affectent la rapidité et la qualité du processus d'apprentissage.
Perceptron multicoucheEn intelligence artificielle, plus précisément en apprentissage automatique, le perceptron multicouche (multilayer perceptron MLP en anglais) est un type de réseau neuronal artificiel organisé en plusieurs couches. Un perceptron multicouche possède au moins trois couches : une couche d'entrée, au moins une couche cachée, et une couche de sortie. Chaque couche est constituée d'un nombre (potentiellement différent) de neurones. L'information circule de la couche d'entrée vers la couche de sortie uniquement : il s'agit donc d'un réseau à propagation directe (feedforward).
Compréhension du langage naturelvignette|L'apprentissage de la lecture par Sigurður málari, siècle. La compréhension du langage naturel (NLU en anglais) ou linterprétation en langage naturel (NLI) est une sous-rubrique du traitement de la langue naturelle en intelligence artificielle qui traite de la compréhension en lecture automatique. La compréhension du langage naturel est considérée comme un problème difficile en IA. Il existe un intérêt commercial considérable dans ce domaine en raison de son application à la collecte de nouvelles, à la catégorisation des textes, à l'activation vocale, à l'archivage et à l'analyse de contenu à grande échelle.
Langue VSOUne langue VSO est, en typologie syntaxique, une langue dont les phrases suivent généralement un ordre verbe-sujet-objet. La grammaire générative a indiqué trois catégories, ou constituants, pour représenter les verbes dans les phrases. Le SV (syntagme verbal), le ST (syntagme temporel) et le Sv (syntagme petit v) sont tous des têtes pouvant contenir des verbes, et ils sont présents dans la représentation syntaxique de toutes les langues du monde. Cependant, les langues du monde ont des paramètres, qui affectent leur production syntaxique.
Grand modèle de langageUn grand modèle de langage, grand modèle linguistique, grand modèle de langue, modèle massif de langage ou encore modèle de langage de grande taille (LLM, pour l'anglais large language model) est un modèle de langage possédant un grand nombre de paramètres (généralement de l'ordre du milliard de poids ou plus). Ce sont des réseaux de neurones profonds entraînés sur de grandes quantités de texte non étiqueté utilisant l'apprentissage auto-supervisé ou l'apprentissage semi-supervisé.
Deeplearning4jEclipse Deeplearning4j is a programming library written in Java for the Java virtual machine (JVM). It is a framework with wide support for deep learning algorithms. Deeplearning4j includes implementations of the restricted Boltzmann machine, deep belief net, deep autoencoder, stacked denoising autoencoder and recursive neural tensor network, word2vec, doc2vec, and GloVe. These algorithms all include distributed parallel versions that integrate with Apache Hadoop and Spark.
Langue OVSUne langue OVS est, en typologie syntaxique, une langue dont les phrases suivent généralement un ordre objet-verbe-sujet. Dans les études typologiques, l’ordre des mots OVS est souvent considéré comme inexistant puisqu'il représente très peu de langues. Cet ordre est le cinquième en fréquence et est représenté par 1 % des langues. Les deux ordres des verbes qui commencent avec un objet, OVS et OSV, sont les plus rares. L’ordre OVS est la deuxième plus rare, après OSV.
Automated machine learningAutomated machine learning (AutoML) is the process of automating the tasks of applying machine learning to real-world problems. AutoML potentially includes every stage from beginning with a raw dataset to building a machine learning model ready for deployment. AutoML was proposed as an artificial intelligence-based solution to the growing challenge of applying machine learning. The high degree of automation in AutoML aims to allow non-experts to make use of machine learning models and techniques without requiring them to become experts in machine learning.