Diese Webseite nutzt Cookies zur Verbesserung des Erlebnisses unserer Besucher. Indem Sie weiterhin auf dieser Webseite navigieren, erklären Sie sich mit unserer Verwendung von Cookies einverstanden.
Einige dieser Cookies sind technisch zwingend notwendig, um gewissen Funktionen der Webseite zu gewährleisten. Darüber hinaus verwenden wir einige Cookies, die dazu dienen, Informationen über das Benutzerverhalten auf dieser Webseite zu gewinnen und unsere Webseite auf Basis dieser Informationen stetig zu verbessern.
Google Cloud Dataproc - Cluster erstellen und verwalten - Benutzerdefinierte Maschinentypen und präemptive Worker-Knoten - Cluster skalieren und lösche
Dataproc-Jobs - Pig- und Hive-Jobs ausführen - Trennung von Speicherung und Rechenleistung - Hadoop- und Spark-Jobs mit Dataproc ausführen - Jobs senden und überwachen
Dataproc in die Google Cloud Plattform integrieren - Cluster mit Initialisierungsaktionen anpassen - BigQuery-Support - Dienste der Google Cloud Plattform nutzen
Machine Learning APIs und unstrukturierte Daten - Google-APIs für maschinelles Lernen - Gängige ML-Anwendungsfälle - ML-APIs - Funktionen des maschinellen Lernens für die Analyse von Big Data
Serverlose Datenanalyse mit BigQuery - Übersicht zu BigQuery - Abfragen und Funktionen - Daten in BigQuery laden - Daten aus BigQuery exportieren - Verschachtelte und wiederkehrende Felder - Mehrere Tabellen abfragen - Komplexe Abfragen - Leistung und Preise
Serverlose, automatisch skalierte Datenpipelines mit Dataflow - Beam-Programmiermodell - Datenpipelines in Beam Python - Datenpipelines in Beam Java - Skalierbare Big Data-Verarbeitung mit Beam - MapReduce in Dataflow - Zusätzliche Daten hinzufügen - Nebeneingaben - Stream-Daten - GCP-Referenzarchitektur
Übersicht über das maschinelle Lernen (ML) - Effektives ML: Konzepte, Typen - ML-Datasets: Generalisierung - ML-Datasets untersuchen und erstellen
ML-Modelle erstellen - Erste Schritte mit TensorFlow - tf.learn verwenden TensorFlow-Grafiken und Schleifen - Low-Level-TensorFlow - vorzeitiges Stoppen - Monitoring des ML-Trainings - Diagramme und Grafiken des TensorFlow-Trainings
ML-Modelle mit CloudML skalieren - Ein TensorFlow-Modell zusammenstellen - End-to-End-Training - ML-Modell lokal und in der Cloud ausführen
Feature Engineering - Funktionen erstellen - Eingaben transformieren - Synthetische Funktionen - Vorverarbeitung mit Cloud ML
Streaminganalysen und Dashboards - von Daten zu Entscheidungen - Streaming-Daten mit BigQuery abfragen - Google Data Studio - Echtzeit-Dashboard zur Visualisierung verarbeiteter Daten erstellen
Hoher Durchsatz und niedrige Latenz mit Bigtable - Cloud Spanner - Bigtable-Schema - In Bigtable aufnehmen - Streaming in Bigtable
Voraussetzungen
Google Cloud Fundamentals: Big Data & Machine Learning Kenntnisse
Grundkenntnisse in SQL
Kenntnisse in Datenmodellierung, Extraktion, Transformation und Ladeaktivitäten
Kenntnisse im Entwickeln von Anwendungen mit einer gängigen Programmiersprache wie Python
Vertrautheit mit maschinellem Lernen und/oder Statistik
Dieses Seminar hat den Level "Datenanalyse / Gehoben".
Wenn Sie sich nicht sicher sind ob dieser Kurs das richtige Niveau für Sie hat, dann können Sie dies vorab mit dem Trainer abstimmen.
Wir bieten Ihnen Seminare mit einem hohen Praxisbezug an. Die Inhalte und Übungen sind auf Ihre täglichen Aufgaben im Unternehmen ausgerichtet und verzichten vollständig auf Werbehinweise anderer Produkte des Softwareherstellers.
Alle Trainings bei uns sind herstellerunabhängig. Dies ermöglicht es uns kritische Betrachtungen zu den Produkten selbst und Vergleiche zu Wettbewerbern des Herstellers im Seminar anzubieten. Die Kursinhalte sind eigene Inhalte und aus den praktischen Erfahrungen unserer Trainer in Projekten abgeleitet.
Selbstverständlich können die Inhalte bei Firmenseminaren individuell an Ihre Bedürfnisse angepasst werden. Bitte sprechen Sie uns einfach an.