Engineering Data with Microsoft Cloud Services

1,500.00

Questo corso di cinque giorni descrive come elaborare i Big Data usando strumenti e servizi di Azure tra cui Azure Stream Analytics, Azure Data Lake, Azure SQL Data Warehouse e Azure Data Factory. Il corso spiega anche come includere funzioni personalizzate e integrare Python e R.

COD: MOC 20776 Categorie: , Tag: , , , , ,

Descrizione

Chi dovrebbe partecipare

Il target principale di questo corso è costituito da ingegneri di dati (professionisti IT, sviluppatori ) che intendono implementare flussi di lavoro di ingegneria di big data in Azure.

 

Prerequisiti

Oltre alla loro esperienza professionale, gli studenti che frequentano questo corso dovrebbero già avere le seguenti conoscenze tecniche:

  • Una buona conoscenza dei servizi dati di Azure.
  • Una conoscenza di base del sistema operativo Microsoft Windows e delle sue funzionalità principali.
  • Una buona conoscenza dei database relazionali.

 

Obiettivi del Corso

Dopo aver completato questo corso, gli studenti saranno in grado di:

  • Descrivere architetture comuni per l’elaborazione di big data usando strumenti e servizi di Azure.
  • Descrivere come usare Azure Stream Analytics per progettare e implementare l’elaborazione del flusso su dati di larga scala.
  • Descrivere come includere funzioni personalizzate e incorporare le attività di apprendimento automatico in un processo di Analisi flusso di Azure.
  • Descrivere come usare Azure Data Lake Store come repository su larga scala di file dati.
  • Descrivere come usare Azure Data Lake Analytics per esaminare ed elaborare i dati conservati in Azure Data Lake Store.
  • Descrivere come creare e distribuire funzioni e operazioni personalizzate, integrarsi con Python e R e proteggere e ottimizzare i lavori.
  • Descrivere come usare Azure SQL Data Warehouse per creare un repository in grado di supportare l’elaborazione analitica su larga scala sui dati inattivi.
  • Descrivere come usare Azure SQL Data Warehouse per eseguire elaborazioni analitiche, come mantenere le prestazioni e come proteggere i dati.
  • Descrivere come usare Azure Data Factory per importare, trasformare e trasferire dati tra repository e servizi.

 

Contenuti del Corso

Questo corso di cinque giorni descrive come elaborare i Big Data usando strumenti e servizi di Azure tra cui Azure Stream Analytics, Azure Data Lake, Azure SQL Data Warehouse e Azure Data Factory. Il corso spiega anche come includere funzioni personalizzate e integrare Python e R.

Informazioni aggiuntive

durata

5 giorni

erogazione

Flex, in Aula, On Site, Remoto