L'une des conditions du PoC était d'utiliser Hortonworks Hadoop. Dans le cadre de ces exigences, nous étions libres de choisir les frameworks. Tous les frameworks utilisés sont inclus dans l'installation standard de Hortonworks Hadoop.
Kafka
Kafka a été utilisé pour charger les données des capteurs dans l'environnement Hadoop. Kafka est une plateforme de streaming distribuée qui est optimale pour les applications de streaming en temps réel. De plus, Kafka est compact et tolérant aux erreurs.
Flume
Pour que les données de Kafka soient disponibles dans le système de fichiers Hadoop, elles doivent être chargées dans le HDFS à partir de ce que l'on appelle le topic Kafka. Pour cela, on utilise Flume.
Hive
Comme l'accès depuis les frameworks de visualisation est plus facile si les requêtes peuvent être effectuées via des requêtes SQL, on utilise Hive. Hive permet d'interroger les données dans le HDFS avec la syntaxe SQL connue.
Visualisierungsframework
Pour le framework de visualisation, il est possible d'utiliser celui avec lequel l'utilisateur se sent le plus à l'aise, mais il faut s'assurer que le framework est compatible avec Hive. Zeppelin a été utilisé pour le PoC. D'autres possibilités sont SAP Lumira Discovery, Tableau, etc.