Inhaltsverzeichnis:

Wie findet man die Genauigkeit eines Entscheidungsbaums?
Wie findet man die Genauigkeit eines Entscheidungsbaums?

Video: Wie findet man die Genauigkeit eines Entscheidungsbaums?

Video: Wie findet man die Genauigkeit eines Entscheidungsbaums?
Video: KI #11 ID3 Decission Tree / Entscheidungsbaum 2024, November
Anonim

Genauigkeit : Die Anzahl der korrekten Vorhersagen geteilt durch die Gesamtzahl der gemachten Vorhersagen. Wir sagen die Majoritätsklasse, die einem bestimmten Knoten zugeordnet ist, als True voraus. d.h. verwenden Sie das größere Wertattribut von jedem Knoten.

Wie können Sie außerdem die Genauigkeit eines Entscheidungsbaums verbessern?

Jetzt sehen wir uns die bewährte Methode zur Verbesserung der Genauigkeit eines Modells an:

  1. Fügen Sie weitere Daten hinzu. Mehr Daten zu haben ist immer eine gute Idee.
  2. Behandeln Sie fehlende und Ausreißerwerte.
  3. Feature-Engineering.
  4. Merkmalsauswahl.
  5. Mehrere Algorithmen.
  6. Algorithmus-Tuning.
  7. Ensemble-Methoden.

Ebenso, was ist Entscheidungsbaum und Beispiel? Entscheidungsbäume sind eine Art von Supervised Machine Learning (d. h. Sie erklären, was die Eingabe und die entsprechende Ausgabe in den Trainingsdaten ist), bei der die Daten kontinuierlich nach einem bestimmten Parameter aufgeteilt werden. Ein Beispiel von a Entscheidungsbaum kann mit obiger binär erklärt werden Baum.

Wie funktionieren Entscheidungsbäume diesbezüglich?

Entscheidungsbaum erstellt Klassifikations- oder Regressionsmodelle in Form von a Baum Struktur. Es zerlegt einen Datensatz in immer kleinere Teilmengen, während gleichzeitig ein zugehöriges Entscheidungsbaum wird inkrementell weiterentwickelt. EIN Entscheidung Knoten hat zwei oder mehr Zweige. Blattknoten repräsentiert eine Klassifikation oder Entscheidung.

Was ist Overfitting im Entscheidungsbaum?

Überanpassung ist das Phänomen, bei dem das lernende System so eng an die gegebenen Trainingsdaten angepasst ist, dass es bei der Vorhersage der Ergebnisse der nicht trainierten Daten ungenau wäre. In Entscheidungsbäume , überangemessen tritt auf, wenn die Baum ist so konzipiert, dass sie perfekt zu allen Stichproben im Trainingsdatensatz passt.

Empfohlen: