Explore la virtualisation des données dans le projet SmartDataLake, couvrant l'optimisation des requêtes, le niveau de stockage et les défis dans le traitement de données hétérogènes.
Couvre les fondamentaux des écosystèmes de big data, en se concentrant sur les technologies, les défis et les exercices pratiques avec le HDFS d'Hadoop.
Explore la production, le stockage, le traitement et les dimensions de Big Data, ainsi que les défis en matière d'analyse de données, d'élasticité de l'informatique en nuage et de sécurité.
Introduit des outils collaboratifs de science des données comme Git et Docker, en mettant l'accent sur le travail d'équipe et les exercices pratiques pour un apprentissage efficace.
Introduit les principes fondamentaux du traitement des données, soulignant l'importance des Pandas et de la modélisation des données pour une analyse efficace.
Présente une démo sur la virtualisation adaptative des données dans SmartDataLake, mettant l'accent sur l'assemblage de profils d'entreprise et l'exécution de requêtes de joint à travers les ensembles de données.
Introduit le cours d'analyse des données appliquées à l'EPFL, couvrant un large éventail de sujets d'analyse des données et mettant l'accent sur l'apprentissage continu en sciences des données.