Tieniti pronto per le professioni del futuro, iscriviti entro il 20 aprile al corso online gestito dalla Fondazione Aldini Valeriani sulle tecnologie e software di data science in partenza il 22 aprile!
Qualsiasi sia il tuo ambito lavorativo la corretta gestione della mole di dati a disposizione è fondamentale. Ad esempio nel settore viaggi una customer journey sarà essenziale per monitore e conoscere la scelta degli utenti e migliorare il servizio delle compagnie aeree. Nel il settore manifatturiero l’ottimizzazione della supply chain e del controllo di tutta la filiera di distribuzione dei prodotti è fondamentale tanto quanto il monitoraggio della logistica e distribuzione al fine di migliorare la vendita del prodotto finale e così via.
Per sfruttare appieno i dati, la loro grande varietà e variabilità sono indispensabili architetture di gestione dei big data flessibili, scalabili, sicure ed efficienti: da qui la necessità di un Hub di dati aziendali (EDH) costruito con Hadoop al suo interno con cui è possibile rafforzare il coinvolgimento del cliente, ottimizzare l’offerta e migliorare le previsioni e il merchandising.
PROGRAMMA:
- Overview della definizione di soluzioni architetturale per il trattamento di Big Data Hadoop common (strato software comune con funzioni di supporto)
- Hadoop Distributed File System (HDFS – derivato da Google’s GFS)
- Hadoop tools, ecosistema e distribuzioni
- Comprendere MapReduce
- Utilizzo di tecnologie open source per trasferire i dati processati da HDFS in un database SQL e viceversa (ETL)
- Differenze tra SQL e linguaggi usati per i BIG DATA
- Operazioni CRUD e aggregazioni avanzate
- Elaborazione dati ed esportazione verso NOSQL
- Utilizzo di MongoDB Connector for Hadoop
- L’importanza di saper comunicare i dati: strumenti di “Data Visualization”
- Algoritmi di data mining (per operazioni di classificazione, regressione, clusterizzazione)
- Algoritmi per la market basket analysis
- Algoritmi per trovare item simili in larghe quantità di dati
- Librerie Python per la gestione e la visualizzazione dei dati (ad es. Pandas, Scikit-Learn, Matplotlib, Seaborne)
- Apache Spark per l’analisi dei dati: RDD, Structured queries, e use case di esempio)
A CHI È RIVOLTO: Giovani in possesso di una laurea triennale o magistrale o una laurea a ciclo unico, conseguita da non più di due anni, residenti o domiciliati in regione Emilia Romagna. A soggetti con formazione di tipo tecnico-scientifico, per il forte focus sui processi industriali, è un progetto destinato a profili con già una esposizione alle seguenti tematiche:
- un livello base di gestione server e cloud
- un livello base di gestione Data Base
- un livello base di programmazione Java
QUANDO: Il corso si svolgerà online dal 22 Aprile al 25 Giugno 2020.
COME MI ISCRIVO: Consulta la pagina del corso.