Cette séance de cours traite des modèles d'espace d'état et de leur expressivité par rapport aux transformateurs. Il commence par définir les modèles basés sur létat et leurs capacités, en se concentrant en particulier sur les mécanismes dattention et leurs coûts de calcul. L'instructeur met en évidence la nature quadratique de l'attention et explore le potentiel d'exécution sous-quadratique grâce à des algorithmes innovants. La séance de cours explore ensuite l'architecture des transformateurs, expliquant comment ils traitent des séquences de jetons et génèrent des mises à jour par le biais de mécanismes d'attention. Le concept de filtrage et de convolution est introduit, soulignant limportance des filtres implicites dans les modèles basés sur létat. L'instructeur discute également des fondements mathématiques des mises à jour d'état et du rôle de diverses matrices dans le processus. La séance de cours se termine par une discussion sur les dernières avancées dans les modèles despace détat, en particulier larchitecture Hayena, qui utilise les transformées de Fourier pour un calcul efficace. Dans l'ensemble, la séance de cours fournit un aperçu complet de la relation entre les modèles d'espace d'état et les transformateurs, en soulignant leurs forces et leurs faiblesses respectives dans diverses applications.