Vektorautoregressionen sind weit verbreitete Methoden in der Wirtschaftsforschung, um die Dynamiken von multivariaten Zeitreihen zu modellieren und vorherzusagen. Wenn diese Methoden jedoch auf hochdimensionale Daten angewendet werden, müssen große Koeffizientenmatrizen geschätzt werden und Überparametrisierung wird zu einer Herausforderung. Einige Lösungen zu diesem Problem wurden vorgeschlagen, darunter die Anwendung von Regressionsregularisierungstechniken wie Least absolute shrinkage and selection operator (Lasso) und ihrer Varianten auf multivariate Zeitreihen. Diese Regularisierungsmethoden sind in der Lage, die Koeffizienten in der Koeffizientenmatrix auf null zu schrumpfen und reduzieren auf diese Weise die Dimension.
Diese Arbeit untersucht die Effizienz und die Prognosegenauigkeit des Large vector autoregression with exogenous variables (VARX-L) framework, das kürzlich von Nicholson, Matteson und Bien (2017) vorgeschlagen wurde. Das Framework kombiniert solche Regularisierungsmethoden mit Vektorautoregression mit exogenen Variablen, um dünn besetzte Matrizen zu schätzen. Die unterschiedlichen VARX-L Modelle werden auf einen Datensatz angewandt, der Daten zu Gas im deutschen Gasnetzwerk enthält. In einer Vorausschätzung der täglichen Kapazität für ein ganzes Jahr über alle Knoten wird die Vorhersageleistung der VARX-L Modelle hinsichtlich des quadrierten Prognosefehlers und anderer Maße gemessen. In Anlehnung an Nicholson, Matteson und Bien (2017) werden die Ergebnisse mit der Vorhersageleistung von naiven Prognosemethoden und VARX Methoden mit Lag Selektion mittels Akaikes Informationskriterium und Bayessches Informationskriterium verglichen. Anhand der Messung der Outperformance wird untersucht, ob die komplexeren Modelle die weniger ausgefeilten Modelle übertreffen.
«
Vektorautoregressionen sind weit verbreitete Methoden in der Wirtschaftsforschung, um die Dynamiken von multivariaten Zeitreihen zu modellieren und vorherzusagen. Wenn diese Methoden jedoch auf hochdimensionale Daten angewendet werden, müssen große Koeffizientenmatrizen geschätzt werden und Überparametrisierung wird zu einer Herausforderung. Einige Lösungen zu diesem Problem wurden vorgeschlagen, darunter die Anwendung von Regressionsregularisierungstechniken wie Least absolute shrinkage and sel...
»