Cette séance de cours couvre les fondamentaux des réseaux de neurones profonds et des splines, en commençant par les réseaux de neurones profonds feedforward et la fonction d'activation ReLU. Il approfondit ensuite les fonctions linéaires continues dans une et plusieurs dimensions, en discutant de leurs propriétés algébriques et de leurs implications pour les réseaux neuronaux ReLU profonds. La séance de cours explore également les propriétés d'approximation universelle des fonctions CPWL et leur mise en œuvre via des réseaux ReLU profonds. En outre, il examine le raffinement des fonctions d'activation, contraignant les fonctions d'activation, le théorème du représentant pour les réseaux neuronaux profonds, et le résultat de ce théorème. La séance de cours se termine par une comparaison des interpolateurs linéaires, la discussion sur les réseaux de splines profondes, leurs opportunités, leurs défis et leur lien avec les schémas existants.