Kursüberblick
Beherrschen Sie die End-to-End-Datenverarbeitung mit Azure Databricks und Unity Catalog. Dieser Kurs bewegt sich von der grundlegenden Einrichtung hin zur Produktionsbereitstellung und behandelt dabei die Konfiguration der Umgebung sowie die Unternehmens-Governance. Erfahren Sie, wie Sie robuste Aufnahmepipelines erstellen, Sicherheit mit Unity-Katalog implementieren und optimierte Workloads bereitstellen. Am Ende haben Sie die praktischen Fähigkeiten, skalierbare Lakehouse-Lösungen zu implementieren, zu sichern und zu pflegen, die strengen Unternehmensanforderungen entsprechen.
Zielgruppe
Die Zielgruppe sind Dateningenieure, die grundlegende Kenntnisse über Datenanalysekonzepte, ein grundlegendes Verständnis des Cloudspeichers und vertraut mit den Prinzipien der Datenorganisation haben. Sie sollten mit SQL arbeiten und Erfahrungen mit der Verwendung von Python, einschließlich Notebooks, für Datentechnik-Aufgaben haben. Lernende werden erwartet, dass sie ein gutes Verständnis für Azure Databricks Arbeitsbereiche und Unity-Katalog haben, zusammen mit der Vertrautheit mit Datenzugriffsmustern und kerntechnischen Datentechnik- und Data Warehouse-Konzepten. Darüber hinaus sollten sie grundlegende Kenntnisse über Azure Sicherheit, einschließlich Microsoft Entra ID, haben und mit den Grundlagen der Git-Versionssteuerung vertraut sein.
Kursinhalt
Einrichten und Konfigurieren einer Azure Databricks-Umgebung
- Erkunden von Azure Databricks
- Grundlegendes zur Architektur von Azure Databricks
- Grundlegendes zu Azure Databricks-Integrationen
- Auswählen und Konfigurieren von Compute in Azure Databricks
- Erstellen und Organisieren von Objekten im Unity-Katalog
Sichern und Steuern von Unity-Katalogobjekten in Azure Databricks
- Secure Unity Catalog-Objekte
- Verwalten von Unity-Katalogobjekten
Vorbereiten und Verarbeiten von Daten mit Azure Databricks
- Entwerfen und Implementieren der Datenmodellierung mit Azure Databricks
- Aufnehmen von Daten in den Unity-Katalog
- Bereinigen, transformieren und laden von Daten in den Unity-Katalog
- Implementieren und Verwalten von Datenqualitätseinschränkungen mit Azure Databricks
Bereitstellen und Verwalten von Datenpipelines und Workloads mit Azure Databricks
- Entwerfen und Implementieren von Datenpipelines mit Azure Databricks
- Implementieren von Lakeflow-Aufträgen mit Azure Databricks
- Implementieren von Entwicklungslebenszyklusprozessen in Azure Databricks
- Überwachen, Beheben von Problemen und Optimieren von Workloads in Azure Databricks
Dieser Kurs wird am 30.04.2026 verfügbar sein.