Was ist das Parkett-Datenformat?
Was ist das Parkett-Datenformat?

Video: Was ist das Parkett-Datenformat?

Video: Was ist das Parkett-Datenformat?
Video: Prioritätenliste für die Verlegerichtung von Parkett (Teil 2) [Ryser Boden-Wissen] 2024, November
Anonim

Apache Parkett ist ein kostenloses und Open-Source-Spalten-orientiertes Daten Lagerung Format des Apache Hadoop-Ökosystems. Es ist kompatibel mit den meisten Daten Verarbeitungsframeworks in der Hadoop-Umgebung. Es bietet effiziente Daten Komprimierungs- und Kodierungsschemata mit verbesserter Leistung, um komplexe Daten in großen Mengen.

Also, was ist das Parkett-Dateiformat?

Parkett , eine Open Source Datei Format für Hadoop. Parkett speichert verschachtelte Datenstrukturen in einer flachen Spalte Format . Im Vergleich zu einem traditionellen Ansatz, bei dem Daten zeilenorientiert gespeichert werden, Parkett ist effizienter in Bezug auf Speicher und Leistung.

Und wofür wird Parkett verwendet? Parkett ist ein Open-Source-Dateiformat, das für jedes Projekt im Hadoop-Ökosystem verfügbar ist. Apache Parkett ist für ein effizientes und leistungsstarkes flaches spaltenförmiges Speicherformat von Daten im Vergleich zu zeilenbasierten Dateien wie CSV- oder TSV-Dateien ausgelegt.

Wie speichert das Parkettformat außerdem Daten?

DATEN BLOCK Jeder Block im Parkett Datei ist gelagert in Form von Reihengruppen. So, Daten in einem Parkett Datei ist in mehrere Zeilengruppen unterteilt. Diese Zeilengruppen bestehen wiederum aus einem oder mehreren Spaltenblöcken, die einer Spalte im Daten einstellen. Die Daten für jeden in Seitenform geschriebenen Spaltenblock.

Ist Parkett menschenlesbar?

ORK, Parkett , und Avro sind auch Maschinen- lesbar Binärformate, d.h. die Dateien sehen aus wie Kauderwelsch zu Menschen . Wenn Sie brauchen ein Mensch - lesbar Format wie JSON oder XML, dann sollten Sie sich wahrscheinlich noch einmal überlegen, warum Sie Hadoop überhaupt verwenden.

Empfohlen: