Êtes-vous un étudiant de l'EPFL à la recherche d'un projet de semestre?
Travaillez avec nous sur des projets en science des données et en visualisation, et déployez votre projet sous forme d'application sur Graph Search.
Cette séance de cours couvre les mathématiques derrière les modèles de langue, y compris la conception de l'architecture, la pré-formation, et le réglage fin. Il explore les bases des modèles de langage, de l'auto-attention et des architectures de transformateurs, en soulignant l'importance de pré-formation et de réglage fin pour diverses tâches. La séance de cours se décline en représentations de mots, en intégration de mots, et le processus de formation des réseaux neuraux pour les modèles de langues. Il traite également de l'émergence de modèles avancés comme le GPT-1, le GPT-2, le GPT-3 et le GPT-4, mettant en évidence leurs capacités dans l'apprentissage non supervisé, l'apprentissage à petite échelle et l'apprentissage en contexte. La séance de cours se termine par un aperçu de la prévisibilité de l'échelle des modèles et de l'alignement des modèles de langage sur les instructions humaines.