Ensemble Learning Methoden erzeugen mehrere Schätzer und kombinieren sie anschließend mit dem Ziel, ihre Vorhersagekraft zu verbessern. Bagging und Random Forests
mitteln hierzu die erzeugten Schätzer, während Boosting mit einem schwachen Schätzer
beginnt und diesen iterativ verbessert. Die höhere Schätzleistung resultiert bei Bagging und Random Forests aus einer Reduzierung der Varianz bei gleichbleibendem bzw.
leicht verschlechtertem Bias. Boosting fokussiert sich stattdessen auf die Minimierung
einer In-Sample Loss Funktion, um die Genauigkeit des Schätzers zu erhöhen. Alle der
genannten Methoden können sowohl zur Klassifikation als auch in Kombination mit Regression Tree Schätzern zur Frequenzschätzung eingesetzt werden. Dabei liefern sie meist
sehr gute Ergebnisse auf Kosten einer erhöhten Laufzeit.
«
Ensemble Learning Methoden erzeugen mehrere Schätzer und kombinieren sie anschließend mit dem Ziel, ihre Vorhersagekraft zu verbessern. Bagging und Random Forests
mitteln hierzu die erzeugten Schätzer, während Boosting mit einem schwachen Schätzer
beginnt und diesen iterativ verbessert. Die höhere Schätzleistung resultiert bei Bagging und Random Forests aus einer Reduzierung der Varianz bei gleichbleibendem bzw.
leicht verschlechtertem Bias. Boosting fokussiert sich stattdessen auf die Minimi...
»