Stato del corso

Edizioni esaurite

Durata e periodo di svolgimento

120 ore

Numero partecipanti

12

Descrizione del percorso

Il valore di un dato si moltiplica di un ben 40% quando correlato e combinato con altri dati. Per sfruttare appieno la mole di dati, la loro grande varietà e variabilità sono indispensabili architetture di gestione dei big data flessibili, scalabili, sicure ed efficienti: da qui la necessità di un Hub di dati aziendali (EDH) costruito con Hadoop al suo interno con cui è possibile rafforzare il coinvolgimento del cliente, ottimizzare l’offerta e migliorare le previsioni e il merchandising. Dunque, un hub aziendale che offra due vantaggi principali: la governance multi-tenancy e la sicurezza dei dati. Questo sistema è ovviamente applicabile a ogni tipologia di settore economico. Per portare solo alcuni esempi:

  1. per il settore viaggi: la customer journey è fondamentale per poter dare un servizio migliore ad esempio da parte della compagnie aeree che hanno la necessità di conoscere e monitorare le scelte degli utenti, la soddisfazione dei servizi erogati, i flussi di informazioni, la logistica, ecc.
  2. per il settore manifatturiero: l’ottimizzazione della supply chain e del controllo di tutta la filiera di distribuzione dei prodotti è fondamentale tanto quanto il monitoraggio della logistica e distribuzione al fine di migliorare la vendita del prodotto finale
  3. per il settore smart city ed energy: la costruzione delle abitazioni moderne dovrebbe passare per l’implementazione e lo sviluppo della domotica e dell’IoT, l’analisi delle esigenze prioritarie degli utenti, la gestione della mobilità cittadina e delle emissioni inquinanti possibili solo tramite la conoscenza e gestione dei flussi di traffico e delle abitudini dei cittadini di un dato territorio.

EDIZIONI

Al momento non sono disponibili edizioni per questo corso

Obiettivi

Uno dei principi chiave per operare con i Big Data è lo stoccaggio di tutti i dati originali, indipendentemente da quando questi saranno utilizzati. Quindi col tempo gli archivi possono assumere dimensioni anche incredibilmente elevate.

Anche se nulla impedisce di realizzare l’archiviazione dei dati tramite un classico database relazionale, spesso questa scelta porta a investire risorse economiche importanti sia in termini computazioniali, sia di storage. Questi e altri motivi portano alcuni colossi dell’innovazione, tra cui Google e Facebook, ad adottare strumenti diversi dagli RDBMS per gestire e i loro Dataset: tra le tecnologie Open Source create per questo scopo una delle più diffuse e utilizzate è Apache Hadoop.

Il progetto ha come obiettivo quello di permettere ai partecipanti di comprendere l’architettura HADOOP per il trattamento di Big Data e sua integrazione nel db noSQL, in modo da essere in grado di utilizzare le principali funzionalità di questi strumenti

Competenze

Il percorso è verticale rispetto al principale framework dei Big Data: Apache Hadoop, che supporta applicazioni distribuite con elevato accesso ai dati sotto una licenza libera, in particolare consente di elaborare in modo efficiente grandi set di dati.

La gestione dei dati può comportare query su dati strutturati all’interno di database di grandi dimensioni, oppure ricerche su file system distribuiti od infine operazioni di manipolazione, visualizzazione, trasferimento e cancellazione di file e directory distribuite su più server. L’analisi computazionale comporta lo sviluppo di metodi ed algoritmi scalabili per la gestione e l’analisi di Big Data. L’analisi dei dati e la modellazione può comportare la riduzione dimensionale, la suddivisione (clustering), la classificazione (ranking), la previsione e la possibilità di future estrazioni.

La Visualizzazione può coinvolgere modalità grafiche che forniscono informazioni su grandi quantità di dati, ricchi di informazioni visive con riepiloghi dei risultati, dove l’analisi visuale talvolta è il momento stesso in cui i dati vengono valutati. Apache Hadoop è un framework che consente l’elaborazione distribuita di grandi insiemi di dati attraverso cluster di servers, oppure sui servizi di cloud computing. È stato progettato per scalare da singolo server a migliaia di macchine distribuite, ognuna delle quali offre capacità di calcolo e di immagazzinamento.

Per la gestione dei Big Data offre alcune componenti molto utilizzate: HDFS e MAP Reduce. Apache Hadoop è un ambiente che supporta applicazioni distribuite con elevato accesso ai dati sotto una licenza libera; permette alle applicazioni di lavorare con migliaia di nodi e petabyte di dati. Hadoop è stato ispirato dalla MapReduce di Google e dal Google File System. Hadoop è un progetto Apache di alto livello costruito e usato da una comunità globale di contributori, che usano il linguaggio di programmazione Java.

E’ prevista la certificazione digitale delle competenze acquisite attraverso la collaborazione con BESTR, divisione di CINECA. Saranno emessi open badge sulle competenze specifiche rilasciate in esito ai progetti, previo raggiungimento del 70% di frequenza.

Contenuti del percorso

• Overview della definizione di soluzioni architetturale per il trattamento di Big Data Hadoop common (strato software comune con funzioni di supporto)
• Hadoop Distributed File System (HDFS – derivato da Google’s GFS)
• Hadoop tools, ecosistema e distribuzioni
• Comprendere MapReduce
• Utilizzo di tecnologie open source per trasferire i dati processati da HDFS in un database SQL e viceversa (ETL)
• Differenze tra SQL e linguaggi usati per i BIG DATA
• Operazioni CRUD e aggregazioni avanzate
• Elaborazione dati ed esportazione verso NOSQL
• Utilizzo di MongoDB Connector for Hadoop
• L’importanza di saper comunicare i dati: strumenti di “Data Visualization”
• Algoritmi di data mining (per operazioni di classificazione, regressione, clusterizzazione)
• Algoritmi per la market basket analysis
• Algoritmi per trovare item simili in larghe quantità di dati
• Librerie Python per la gestione e la visualizzazione dei dati (ad es. Pandas, Scikit-Learn, Matplotlib, Seaborne)
• Apache Spark per l’analisi dei dati: RDD, Structured queries, e use case di esempio)

Destinatari e requisiti d'accesso

Giovani in possesso di una laurea triennale o magistrale o una laurea a ciclo unico, conseguita da non più di 24 mesi, residenti o domiciliati in regione Emilia Romagna in data antecedente l’iscrizione alle attività.

Il progetto TECNOLOGIE E SOFTWARE PER IL TRATTAMENTO BIG DATA) è particolarmente rivolto a soggetti con formazione di tipo tecnico-scientifico, per il forte focus sui processi industriali, è un progetto destinato a profili con già una esposizione alle seguenti tematiche:

  • un livello base di gestione server e cloud
  • un livello base di gestione Data Base
  • un livello base di programmazione Java

Sedi e modalità di svolgimento

Sono previste edizioni dei corsi su tutto il territorio regionale. Per visionare le edizioni attive ed iscriversi si rimanda alla sezione calendario edizioni.

Contatti

Per informazioni:
Tel. 800 036425
Mail. bigdata@formindustria.it

Riferimento

Operazione Rif. 2019-11596/RER approvata con Deliberazione di Giunta Regionale n. 789 del 20/05/2019, cofinanziata con risorse del Fondo sociale europeo e della Regione Emilia-Romagna