[TOS tutorial 10] Erstellung von Metadaten für die Verknüpfung von Clustern
In diesem Tutorial erfahren Sie, wie Sie Hadoop-Cluster-Metadaten automatisch durch eine Verbindung zu Cloudera Manager erstellen.
Dieses Tutorial basiert auf Talend Data Fabric Studio Version 6 und einem Hadoop-Cluster: Cloudera CDH Version 5.4.
1. Erstellen Sie eine neue Hadoop-Cluster-Metadaten-Definition
- Wählen Sie die Ansicht Integration aus.
- Erweitern Sie im Project Repository den Bereich Metadata, klicken Sie mit der rechten Maustaste auf Hadoop Cluster und klicken Sie anschließend auf Create Hadoop Cluster, um den Assistenten zu öffnen.
- Geben Sie im „Hadoop Cluster Connection“-Assistenten im Feld „Name“ MyHadoopCluster ein. Geben Sie im Feld „Purpose“ Cluster connection metadata ein. Geben Sie im Feld „Description“ Metadata to connect to a Cloudera CDH 5.4 cluster ein und klicken Sie auf Next.
Der „Hadoop Configuration Import“-Assistent öffnet sich.
2. Wählen Sie die automatische Konfigurationsmethode aus
- Wählen Sie in der „Distribution“-Liste des „Hadoop Configuration Import“-Assistenten Cloudera und in der „Version“-Liste 4(YARN mode) aus. Es gibt verschiedene Möglichkeiten, um Hadoop-Cluster-Metadaten zu erstellen: – automatische Konfiguration durch Abruf der Konfiguration von Ambari oder Cloudera Manager – automatische Konfiguration durch den Import der Konfiguration aus den Hadoop-Konfigurationsdateien – manuelle Konfiguration
- Um die automatische Konfigurationsmethode zu wählen, wählen Sie im Feld „Option“ Retrieve configuration from Ambari or Cloudera und klicken Sie auf Next .
3. Stellen Sie eine Verbindung zu Cloudera Manager her
Cloudera Manager ist eine End-to-End-Anwendung für die Verwaltung von Cloudera-CDH-Clustern. Stellen Sie eine Verbindung zu Cloudera Manager her, um die Verbindungsdaten abzurufen und die entsprechenden Metadaten zu erstellen.
- Um eine Verbindung zu Cloudera Manager herzustellen, geben Sie die Anmeldedaten für Cloudera Manager ein. Geben Sie im Manager-URI-Feld (mit Port) http://clusterCDH54:7180 ein. Geben Sie in den Feldern Benutzername und Passwort admin ein und klicken Sie auf Connect. Der Cluster mit dem Namen Cluster 1 erscheint in der Liste der gefundenen Cluster.
- Um die Konfiguration mit den gefundenen Clustern abzurufen, klicken Sie auf Fetch. Der Assistent erkennt die Konfigurationsdateien und listet die entsprechenden Dienste auf. In diesem Tutorial behalten wir die Standardkonfiguration bei und erstellen Metadatendefinitionen für YARN, HDFS, Hive und HBase. Die Definition für Spark ist nicht verfügbar.
- Um die Konfiguration in die erstellten Hadoop-Cluster-Metadaten zu importieren, klicken Sie auf Finish.
4. Erstellen Sie Metadaten, die den aufgelisteten Diensten mit Ausnahme von Spark entsprechen
- Geben Sie im Authentifizierungsfeld des „Hadoop Cluster Connection“-Assistenten den Benutzernamen student ein und klicken Sie auf Check Services. Das Fenster „Checking Hadoop Services“ öffnet sich. Der NameNode- und Ressourcenmanager-Status liegt bei 100 Prozent
- Schließen Sie das „Checking Hadoop Services“-Fenster. Um den „Hadoop Cluster Connection“-Assistenten zu schließen und die Metadaten zu erstellen, klicken Sie auf Finish.
5. Prüfen Sie die im Repository erstellten Metadaten
- Erweitern Sie im Repository den Bereich Hadoop Cluster. Die Metadatendefinitionen sind jetzt verfügbar.
- Erweitern Sie die Hauptdefinition mit dem Namen MyHadoopCluster, die dem YARN-Service entspricht. Erweitern Sie HBase, HDFS und Hive.
Die Metadatendefinitionen können ab sofort in Talend-Jobs genutzt werden.
← PREVIOUS TUTORIAL | NEXT TUTORIAL →
Sind Sie bereit, mit Talend durchzustarten?
Weitere Artikel zu diesem Thema
- Erste Schritte mit Talend Open Studio for Data Integration
- [TOS tutorial 02] Eine Datei lesen
- [TOS tutorial 01] Erste Schritte in Talend Studio
- [TOS tutorial 03] Eine Datei sortieren
- [TOS tutorial 07] Joins in tMap konfigurieren
- [TOS tutorial 08] Konditionale Filter mithilfe der tMap-Komponente hinzufügen
- [TOS tutorial 09] Kontextvariablen verwenden
- [TOS tutorial 06] Zwei Datenquellen mit der tMap-Komponente verknüpfen
- [TOS tutorial 05] Daten mit der tMap-Komponente filtern
- [TOS tutorial 04] Metadaten erstellen und verwenden
- [TOS tutorial 13] Ausführen eines Jobs in Spark
- [TOS tutorial 12] Daten in HDFS schreiben und lesen
- [TOS tutorial 11] Erstellung von Metadaten für die Verknüpfung von Clustern aus Konfigurationsdateien
- [TOS tutorial 14] Running a Job on YARN