Couvre les techniques de manipulation des données à l'aide de Hadoop, en se concentrant sur les bases de données axées sur les lignes et les colonnes, les formats de stockage populaires et l'intégration HBase-Hive.
Couvre les outils de science des données, Hadoop, Spark, les écosystèmes des lacs de données, le théorème CAP, le traitement par lots vs. flux, HDFS, Hive, Parquet, ORC, et l'architecture MapReduce.
Introduit le modèle relationnel, SQL, les clés, les contraintes d'intégrité, la traduction ER, les entités faibles, les hiérarchies ISA et SQL vs. noSQL.
Couvre les fondements des systèmes de base de données, y compris la modélisation des données, le traitement de l'information et les défis de la gestion d'importants volumes de données.
Discute de la modélisation des systèmes hydrologiques, en mettant l'accent sur le routage et la rétention des inondations à l'aide d'une nouvelle base de données.