Performing Big Data Engineering on Microsoft Cloud Services

Academy
Digicomp
Kurzbeschreibung
In diesem 5-tägigen Seminar lernen Sie, wie Sie mithilfe von Azure Ihre Big Data verwalten. Ausserdem wird Ihnen erklärt, wie Sie benutzerde... mehr...
In diesem 5-tägigen Seminar lernen Sie, wie Sie mithilfe von Azure Ihre Big Data verwalten. Ausserdem wird Ihnen erklärt, wie Sie benutzerdefinierte Funktionen einbinden und Python und R integrieren können. weniger
Kursorte
Basel, Bern, Zürich
Kursarten
Kurs/Seminar
Fachbereiche

Cloud, Informatik, Microsoft Professional, Data Science, Microsoft Datenbanken

Dieser Kurs ist neu hier. 0 User folgen diesem Kurs und erhalten Bescheid, wenn es Neues gibt - Kurs jetzt folgen.

Du hast den Kurs besucht? Kurs jetzt bewerten.

Hier kannst du der Eggheads Community deine Fragen zu diesem Kurs stellen. Auch Kursleiter können mitdiskutieren.


Frage stellen

Du must angemeldet sein um zu antworten

Kursleiter

Andi

Andi Profilfoto
Kursinhalt
  1. Module: Architectures for Big Data Engineering with Azure – This module describes common architectures for processing big data using Azure tools and services.
    • Lessons:
      • Understanding Big Data
      • Architectures for Processing Big Data
      • Considerations for designing Big Data solutions
    • Lab: Designing a Big Data Architecture
      • Design a big data architecture
  2. Module: Processing Event Streams using Azure Stream Analytics – This module describes how to use Azure Stream Analytics to design and implement stream processing over large-scale data.
    • Lessons:
      • Introduction to Azure Stream Analytics
      • Configuring Azure Stream Analytics jobs
    • Lab: Processing Event Streams with Azure Stream Analytics
      • Create an Azure Stream Analytics job
      • Create another Azure Stream job
      • Add an Input
      • Edit the ASA job
      • Determine the nearest Patrol Car
  3. Module: Performing custom processing in Azure Stream Analytics – This module describes how to include custom functions and incorporate machine learning activities into an Azure Stream Analytics job.
    • Lessons:
      • Implementing Custom Functions
      • Incorporating Machine Learning into an Azure Stream Analytics Job
    • Lab: Performing Custom Processing with Azure Stream Analytics
      • Add logic to the analytics
      • Detect consistent anomalies
      • Determine consistencies using machine learning and ASA
  4. Module: Managing Big Data in Azure Data Lake Store – This module describes how to use Azure Data Lake Store as a large-scale repository of data files.
    • Lessons:
      • Using Azure Data Lake Store
      • Monitoring and protecting data in Azure Data Lake Store
    • Lab: Managing Big Data in Azure Data Lake Store
      • Update the ASA Job
      • Upload details to ADLS
  5. Module: Processing Big Data using Azure Data Lake Analytics – This module describes how to use Azure Data Lake Analytics to examine and process data held in Azure Data Lake Store.
    • Lessons:
      • Introduction to Azure Data Lake Analytics
      • Analyzing Data with U-SQL
      • Sorting, grouping, and joining data
    • Lab: Processing Big Data using Azure Data Lake Analytics
      • Add functionality
      • Query against Database
      • Calculate average speed
  6. Module: Implementing custom operations and monitoring performance in Azure Data Lake Analytics – This module describes how to create and deploy custom functions and operations, integrate with Python and R, and protect and optimize jobs.
    • Lessons:
      • Incorporating custom functionality into Analytics jobs
      • Managing and Optimizing jobs
    • Lab: Implementing custom operations and monitoring performance in Azure Data Lake Analytics
      • Custom extractor
      • Custom processor
      • Integration with R/Python
      • Monitor and optimize a job
  7. Module: Implementing Azure SQL Data Warehouse – This module describes how to use Azure SQL Data Warehouse to create a repository that can support large-scale analytical processing over data at rest.
    • Lessons:
      • Introduction to Azure SQL Data Warehouse
      • Designing tables for efficient queries
      • Importing Data into Azure SQL Data Warehouse
    • Lab: Implementing Azure SQL Data Warehouse
      • Create a new data warehouse
      • Design and create tables and indexes
      • Import data into the warehouse.
  8. Module: Performing Analytics with Azure SQL Data Warehouse – This module describes how to import data in Azure SQL Data Warehouse, and how to protect this data.
    • Lessons:
      • Querying Data in Azure SQL Data Warehouse
      • Maintaining Performance
      • Protecting Data in Azure SQL Data Warehouse
    • Lab: Performing Analytics with Azure SQL Data Warehouse
      • Performing queries and tuning performance
      • Integrating with Power BI and Azure Machine Learning
      • Configuring security and analysing threats
  9. Module: Automating the Data Flow with Azure Data Factory – This module describes how to use Azure Data Factory to import, transform, and transfer data between repositories and services.
    • Lessons:
      • Introduction to Azure Data Factory
      • Transferring Data
      • Transforming Data
      • Monitoring Performance and Protecting Data
    • Lab: Automating the Data Flow with Azure Data Factory
      • Automate the Data Flow with Azure Data Factory
Kursziele
  • Beschreiben der grundlegenden Architekturen für die Verarbeitung grosser Datenmengen mit Azure-Tools und -Diensten
  • Beschreiben, wie Sie Azure Stream Analytics zum Entwerfen und Implementieren einer Stream-Verarbeitung über grosse Datenmengen verwenden
  • Beschreiben, wie Sie benutzerdefinierte Funktionen einbeziehen und Maschinenlernaktivitäten in einen Azure Stream Analytics-Auftrag einbinden
  • Beschreiben, wie Sie Azure Data Lake Store als grosses Repository mit Dateien verwenden können
  • Beschreiben, wie Sie mit Azure Data Lake Analytics Daten im Azure Data Lake Store untersuchen und verarbeiten können
  • Beschreiben, wie Sie benutzerdefinierte Funktionen und Operationen erstellen und implementieren, in Python und R integrieren und Jobs schützen und optimieren können
  • Beschreiben, wie Sie Azure SQL Data Warehouse verwenden, um ein Repository zu erstellen, das umfangreiche analytische Verarbeitungen über ruhende Daten unterstützen kann
  • Beschreiben, wie Sie mit Azure SQL Data Warehouse die Analyseverarbeitung durchführen, wie Sie die Leistung aufrechterhalten und wie Sie die Daten schützen
  • Beschreiben, wie Sie mit Azure Data Factory Daten zwischen Repositorys und Diensten importieren, transformieren und übertragen können
Zielpublikum

Dieser Kurs richtet sich an Dateningenieure (IT-Experten, Entwickler und Information Worker), die Big Data-Workflows in Azure implementieren möchten.

Anforderungen
Grundkenntnisse in Datenmanagement und Verarbeitung. Wir empfehlen den Besuch einer der folgenden Kurse oder gleichwertige Kenntnisse:
Kursgebühr
Fr. 4'000.00
Nächste Durchführungsdaten
  • 9. Juli 2018
  • 19. September 2018
  • 12. Dezember 2018