Diese Webseite nutzt Cookies zur Verbesserung des Erlebnisses unserer Besucher. Indem Sie weiterhin auf dieser Webseite navigieren, erklären Sie sich mit unserer Verwendung von Cookies einverstanden.
Was lernen Sie in unserem Training Pivotal HD - Big Data mit Hadoop?
Hadoop-Grundlagen erlernen: Bevor Sie Pivotal HD trainieren, sollten Sie sich mit den Grundlagen von Hadoop vertraut machen. Dies umfasst Konzepte wie das Hadoop Distributed File System (HDFS), MapReduce und Hadoop-Cluster-Konfigurationen.
Pivotal HD-Dokumentation: Pivotal Software bietet eine umfassende Dokumentation für Pivotal HD. Die Dokumentation enthält Installationsanleitungen, Konfigurationsdetails und Beispiele für die Verwendung verschiedener Komponenten von Pivotal HD.
Online-Tutorials und Kurse: Es gibt viele Online-Tutorials und Kurse, die sich mit Pivotal HD und Hadoop befassen. Diese Ressourcen bieten schrittweise Anleitungen, praktische Übungen und Fallstudien, um Ihnen beim Erlernen von Pivotal HD zu helfen.
Schulungen und Zertifizierungen: Pivotal Software bietet möglicherweise offizielle Schulungen und Zertifizierungen für Pivotal HD an. Diese Schulungen können entweder online oder in Präsenzform angeboten werden und bieten eine strukturierte Lernumgebung mit erfahrenen Trainern.
Praktische Erfahrung sammeln: Um Ihre Fähigkeiten in Pivotal HD und Hadoop weiter zu entwickeln, ist es wichtig, praktische Erfahrung zu sammeln. Versuchen Sie, eigene Projekte zu erstellen und mit Pivotal HD zu experimentieren. Dies hilft Ihnen dabei, Ihr Wissen anzuwenden und Probleme zu lösen, die bei der Arbeit mit Big Data auftreten können.
Diese Liste ist nicht vollständig und es gibt noch viele weitere Themen, die in einem Seminar für Pivotal HD - Big Data mit Hadoop behandelt werden können, abhängig von den spezifischen Bedürfnissen und Anforderungen der Teilnehmer.
Seminar / Training Pivotal HD - Big Data mit Hadoop
Einführung in NoSQL - NoSQL Paradigmen - NoSQL und Skalierbarkeit - "kein SQL" versus "Nicht nur SQL" - Arten von NoSQL-Datenbanken (Schlüssel-Wert-Speicher, Grafik, MapReduce ...)
Einführung in Hadoop - Was ist Hadoop? - Das Hadoop Ökosystem: Pig, Hive, HBase, Zookeeper ... - Verständnis MapReduce und HDFS (Hadoop Distributed File System) - Sicherstellen von Datenintegrität (Prüfsumme ...) - Ein- / Ausgangs Komprimierung in Hadoop - Die Einführung eines Hadoop Jobs - Konfigurieren der Hadoop-Laufzeit
Hadoop Distributed File System - Design-Ziele: Standardhardware laufen, Fehlertoleranz ... - Skalierung von einem Datanode auf Hunderte von Datanodes - HDFS Befehle - Arbeiten mit Dateipfaden - HDFS Verwaltung (UI, admin-Befehle ...) . Arbeiten mit der Java-API für HDFS - Arbeiten mit einem Secordary Namenode, Föderierte Namenodes und Hochverfügbarkeit Namenodes
Erste Schritte mit Map Reduce - Mapo Reduce Überblick - Hadoop-Versionen - Schreiben eines Mappers - Schreiben eines Reducers - Debugging und Testen - Beschreibbare Hierarchie - Partitionners, Combiner, Shuffle - Wie kann man Objekte und Garbage Collector Optimierung wiederverwenden - Beschränkungen - Joins (Karte Seite und Reduzieren Seite)
Streaming MapReduce, PIG - Alternativen zum Schreiben von Java-Mapper und Reducern - Hadoop Streaming - Pig Scripting - SQL in Hadoop
Einführung in HIVE - Hive Überblick - Hive Tabellen und DDL - Partitionen und externen Tabellen - Daten verbinden - Transforms und User Defined Functions (UDF)
Pivotal HD Architektur - Apache Hadoop Komponenten - HAWQ - Data Loader - Command Center - Hadoop Virtualization Extensions (HVE)
Erste Schritte mit HAWQ - HAWQ Installation und Umwelt - Konfiguration und Bedienung - Client-Zugriff auf HAWQ - Einführung in SQL HAWQ - Übersicht über Spring JDBC und Test SupportGoPivotal - Datenverarbeitung BIG DATA mit Hadoop und Angel HD
Arbeiten mit HAWQ - Erstellen von Datenbanktabellen - Abfragen - Joins - Funktionen
HAWQ und externe Tabellen - Übersicht über externe Tabellen - Laden der Daten mit gpfdist / gpload - Externe Tabellen mit PXF - Laden und Entladen von Daten Zusammenfassung - Hadoop und Sqoop
HAWQ Best Practices - Abfragepläne - ANALYZE und EXPLAIN - Distributions und Partitionierung - Datenspeicher und I / O
Voraussetzungen
keine
Dieses Seminar hat den Level "Administration / Basis und Aufbau".
Wenn Sie sich nicht sicher sind ob dieser Kurs das richtige Niveau für Sie hat, dann können Sie dies vorab mit dem Trainer abstimmen.
Wir bieten Ihnen Seminare mit einem hohen Praxisbezug an. Die Inhalte und Übungen sind auf Ihre täglichen Aufgaben im Unternehmen ausgerichtet und verzichten vollständig auf Werbehinweise anderer Produkte des Softwareherstellers.
Alle Trainings bei uns sind herstellerunabhängig. Dies ermöglicht es uns kritische Betrachtungen zu den Produkten selbst und Vergleiche zu Wettbewerbern des Herstellers im Seminar anzubieten. Die Kursinhalte sind eigene Inhalte und aus den praktischen Erfahrungen unserer Trainer in Projekten abgeleitet.
Selbstverständlich können die Inhalte bei Firmenseminaren individuell an Ihre Bedürfnisse angepasst werden. Bitte sprechen Sie uns einfach an.