Muss ich Hadoop für Spark lernen?
Muss ich Hadoop für Spark lernen?

Video: Muss ich Hadoop für Spark lernen?

Video: Muss ich Hadoop für Spark lernen?
Video: PySpark Tutorial 2024, April
Anonim

Nein, tust du nicht muss Hadoop lernen zu LearnSpark . Funke war ein eigenständiges Projekt. Aber nach YARNand Hadoop 2.0, Funke wurde populär, weil Funke kann zusammen mit anderen auf HDFS laufen Hadoop Komponenten. Hadoop ist ein Framework, in dem Sie einen MapReduce-Job schreiben, indem Sie Java-Klassen erben.

Was ist besser, um Spark oder Hadoop zu lernen?

Der erste und wichtigste Unterschied ist die Kapazität des RAM und seine Verwendung. Funke Verwendet mehr Direktzugriffsspeicherals Hadoop , aber es „frisst“weniger Internet- oder Disc-Speicher, wenn Sie also Hadoop , es ist besser eine leistungsstarke Maschine mit großem internen Speicher zu finden.

Zweitens, ist Hadoop leicht zu erlernen? Hadoop Programmierung ist Einfacher auch für Leute mit SQL-Kenntnissen - dank Pig und Hive. Studenten oder Fachleute ohne Programmierkenntnisse, die nur grundlegende SQL-Kenntnisse haben, können es beherrschen Hadoop durch umfassendes Hands-on Hadoop Ausbildung, wenn sie den Eifer und die Bereitschaft dazu haben lernen.

Außerdem wurde gefragt, wie lange es dauert, Hadoop zu lernen?

ca. 3-4 Monate

Ersetzt der Funke Hadoop?

Funke kann nie sein Ersatz zum Hadoop ! Funke ist eine Verarbeitungs-Engine, die zusätzlich zum Hadoop Ökosystem. Wie in der obigen Architektur gezeigt, Funke kommt anstelle von MapReduce in den Hadoop Ökosystem. Es gibt andere Komponenten in der Hadoop Architektur zur Verarbeitung von Daten wie Pig andHive.

Empfohlen: