Couvre les bases du traitement des flux de données, y compris des outils comme Apache Storm et Kafka, des concepts clés tels que le temps d'événement et les opérations de fenêtre, et les défis du traitement des flux.
Conclut le chapitre sur la transformation numérique, en mettant l'accent sur l'alignement de la stratégie d'entreprise et les technologies habilitantes.
Explore la modélisation métabolique à laide de modèles TFA et cinétiques, couvrant la simulation de croissance, les compromis nutritifs, lanalyse phénotypique et lintégration métabolomique.
Couvre les fondamentaux des écosystèmes de big data, en se concentrant sur les technologies, les défis et les exercices pratiques avec le HDFS d'Hadoop.
Couvre la topologie algébrique, les nombres de Betti et les méthodes de représentation de la forme pour une mesure et une analyse efficaces de la forme des données.