Wir beraten Sie gerne!
+49 40 253346-10     Kontakt
> > > DEGCP Detaillierte Beschreibung

Data Engineering on Google Cloud Platform (DEGCP)

Detaillierter Kursinhalt

Leveraging Unstructured Data with Cloud Dataproc on Google Cloud Platform

Modul 1: Übersicht über Google Cloud Dataproc
  • Cluster erstellen und verwalten
  • Benutzerdefinierte Maschinentypen und Worker-Knoten auf Abruf nutzen
  • Cluster skalieren und löschen
  • Lab: Hadoop-Cluster mit Google Cloud Dataproc erstellen
Modul 2: Dataproc-Jobs ausführen
  • Pig- und Hive-Jobs ausführen
  • Trennung von Speicherung und Rechenleistung
  • Lab: Hadoop- und Spark-Jobs mit Dataproc ausführen
  • Lab: Jobs senden und überwachen
Modul 3: Dataproc in die Google Cloud Platform integrieren
  • Cluster mit Initialisierungsaktionen anpassen
  • BigQuery-Support
  • Lab: Dienste der Google Cloud Platform nutzen
Modul 4: Mit den Machine Learning APIs von Google unstrukturierte Daten verarbeiten
  • Google APIs für maschinelles Lernen
  • Gängige ML-Anwendungsfälle
  • ML APIs aufrufen
  • Lab: Big-Data-Analysen um Funktionen für maschinelles Lernen erweitern

Serverless Data Analysis with Google BigQuery and Cloud Dataflow

Modul 5: Serverlose Datenanalyse mit BigQuery
  • Übersicht zu BigQuery
  • Abfragen und Funktionen
  • Lab: Abfragen in BigQuery schreiben
  • Daten in BigQuery laden
  • Daten aus BigQuery exportieren
  • Lab: Daten laden und exportieren
  • Verschachtelte und wiederkehrende Felder
  • Mehrere Tabellen abfragen
  • Lab: Komplexe Abfragen
  • Leistung und Preise
Modul 6: Serverlose, automatisch skalierte Datenpipelines mit Dataflow
  • Das Beam-Programmiermodell
  • Datenpipelines in Beam Python
  • Datenpipelines in Beam Java
  • Lab: Dataflow-Pipeline schreiben
  • Skalierbare Big-Data-Verarbeitung mit Beam
  • Lab: MapReduce in Dataflow
  • Zusätzliche Daten hinzufügen
  • Lab: Nebeneingaben
  • Streamdaten verarbeiten
  • GCP-Referenzarchitektur

Serverless Machine Learning with Tensorflow on Google Cloud Platform

Modul 7: Erste Schritte mit dem maschinellen Lernen
  • Übersicht über das maschinelle Lernen (ML)
  • Effektives ML: Konzepte, Typen
  • ML-Datasets: Generalisierung
  • Lab: ML-Datasets untersuchen und erstellen
Modul 8: ML-Modelle mit TensorFlow erstellen
  • Erste Schritte mit TensorFlow
  • Lab: tf.learn verwenden
  • TensorFlow-Grafiken und Schleifen plus Lab
  • Lab: Low-Level-TensorFlow und vorzeitiges Stoppen verwenden
  • Monitoring des ML-Trainings
  • Lab: Diagramme und Grafiken des TensorFlow-Trainings
Modul 9: ML-Modelle mit CloudML skalieren
  • Warum Cloud ML?
  • Ein TensorFlow-Modell zusammenstellen
  • End-to-End-Training
  • Lab: ML-Modell lokal und in der Cloud ausführen
Modul 10: Feature Engineering
  • Gute Funktionen erstellen
  • Eingaben transformieren
  • Synthetische Funktionen
  • Vorverarbeitung mit Cloud ML
  • Lab: Funktionsentwicklung

Building Resilient Streaming Systems on Google Cloud Platform

Modul 11: Architektur von Streaminganalyse-Pipelines
  • Stream-Datenverarbeitung: Herausforderungen
  • Variable Datenmengen verarbeiten
  • Ungeordnete/späte Daten bearbeiten
  • Lab: Streaming-Pipeline entwerfen
Modul 12: Variable Datenvolumen aufnehmen
  • Was ist Cloud Pub/Sub?
  • Funktionsweise: Themen und Abonnements
  • Lab: Simulator
Modul 13: Streaming-Pipelines implementieren
  • Herausforderungen der Streamverarbeitung
  • Späte Daten bearbeiten: Wasserzeichen, Trigger, Akkumulation
  • Lab: Stream-Datenverarbeitungspipeline für Live-Traffic-Daten
Modul 14: Streaminganalysen und Dashboards
  • Streaminganalyse: von Daten zu Entscheidungen
  • Streamingdaten mit BigQuery abfragen
  • Was ist Google Data Studio?
  • Lab: Echtzeit-Dashboard zur Visualisierung verarbeiteter Daten erstellen
Modul 15: Hoher Durchsatz und niedrige Latenz mit Bigtable
  • Was ist Cloud Spanner?
  • Bigtable-Schema entwerfen
  • In Bigtable aufnehmen
  • Lab: Streaming in Bigtable
 

Cookies verbessern unsere Services. Durch die Benutzung unserer Website erklären Sie sich mit unserer Verwendung von Cookies einverstanden.   Verstanden.