vignette|upright=1|Schéma du test de Turing. Le test de Turing est une proposition de test d’intelligence artificielle fondée sur la faculté d'une machine à imiter la conversation humaine. Décrit par Alan Turing en 1950 dans sa publication Computing Machinery and Intelligence, ce test consiste à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain. Si la personne qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test.
droite|vignette| Architecture du modèle GPT Le transformeur génératif pré-entraîné (ou GPT, de l’anglais generative pre-trained transformer) est une famille de modèles de langage généralement formée sur un grand corpus de données textuelles pour générer un texte de type humain. Il est construit en utilisant plusieurs blocs de l'architecture du transformeur. Ils peuvent être affinés pour diverses tâches de traitement du langage naturel telles que la génération de texte, la traduction de langue et la classification de texte.
L'intelligence artificielle générative ou IA générative (ou GenAI) est un type de système d'intelligence artificielle (IA) capable de générer du texte, des images ou d'autres médias en réponse à des invites (ou "prompts"). Les modèles génératifs apprennent les modèles et la structure des données d'entrée, puis génèrent un nouveau contenu similaire aux données d'apprentissage mais avec un certain degré de nouveauté (plutôt que de simplement classer ou prédire les données).
En traitement automatique des langues, un modèle de langage ou modèle linguistique est un modèle statistique de la distribution de symboles distincts (lettres, phonèmes, mots) dans une langue naturelle. Un modèle de langage peut par exemple prédire le mot suivant dans une séquence de mots. Un modèle de langage n-gramme est un modèle de langage qui modélise des séquences de mots comme un processus de Markov. Il utilise l'hypothèse simplificatrice selon laquelle la probabilité du mot suivant dans une séquence ne dépend que d'une fenêtre de taille fixe de mots précédents.
In deep learning, fine-tuning is an approach to transfer learning in which the weights of a pre-trained model are trained on new data. Fine-tuning can be done on the entire neural network, or on only a subset of its layers, in which case the layers that are not being fine-tuned are "frozen" (not updated during the backpropagation step). A model may also be augmented with "adapters" that consist of far fewer parameters than the original model, and fine-tuned in a parameter-efficient way by tuning the weights of the adapters and leaving the rest of the model's weights frozen.
BuzzFeed est un site d'information et une société américaine de médias Internet. Fondée en 2006 à New York comme un laboratoire viral par , la société est un média mondial de divertissement présent majoritairement sur les réseaux sociaux. Connue à l'origine pour ses quiz en ligne et ses articles sur la culture pop, la société est devenue une entreprise mondiale de médias et de technologie, offrant une couverture sur une variété de sujets, notamment la politique, le bricolage, les animaux et les affaires.
Bard est un prototype de chatbot (agent conversationnel) construit par Google sur la base de leur modèle de langage LaMDA. Les résultats proposés par Bard reposent sur un algorithme statistique, à l'instar de ChatGPT. En novembre 2022, OpenAI a lancé ChatGPT, un chatbot basé sur la famille de modèles de langage GPT-3. ChatGPT a attiré l'attention du monde entier après sa sortie, devenant une sensation virale sur Internet.