Il corso fornisce le competenze per poter sviluppare progetti di importazione dati (Big Data) nel cluster Apache Hadoop e come processarli nellecosistema con gli appositi strumenti (Spark, Impala, Hide e Flume).
L’allievo saprà attivare un’infrastruttura Hadoop con il suo HDFS, importarci le informazioni e sviluppare applicazioni che operano sul suo sistema distribuito.
Introduzione allecosistema e struttura del filesystem
Importazione dei dati
Impala e Hive
Modellazione e gestione dei dati
Apache Flume
Apache Spark
Modelli di elaborazione dei dati
Recensioni
Ancora non ci sono recensioni.