Séance de cours

Modèles de langage: De la théorie à l'informatique

Description

Cette séance de cours couvre les mathématiques derrière les modèles de langue, y compris la conception de l'architecture, la pré-formation, et le réglage fin. Il explore les bases des modèles de langage, de l'auto-attention et des architectures de transformateurs, en soulignant l'importance de pré-formation et de réglage fin pour diverses tâches. La séance de cours se décline en représentations de mots, en intégration de mots, et le processus de formation des réseaux neuraux pour les modèles de langues. Il traite également de l'émergence de modèles avancés comme le GPT-1, le GPT-2, le GPT-3 et le GPT-4, mettant en évidence leurs capacités dans l'apprentissage non supervisé, l'apprentissage à petite échelle et l'apprentissage en contexte. La séance de cours se termine par un aperçu de la prévisibilité de l'échelle des modèles et de l'alignement des modèles de langage sur les instructions humaines.

À propos de ce résultat
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.