Die Quantilregression hat in der statistischen Modellierung zunehmend an Bedeutung gewonnen und
findet in verschiedenen Bereichen Anwendung als ergänzender Ansatz zur linearen Regression. Probleme
wie quantile crossing und die Annahme der Linearität gehören zu den Nachteilen der klassischen
linearen Quantilregression, die von Koenker and Bassett Jr (1978) entwickelt wurde. Kraus and Czado
(2017) haben diese Probleme durch die Entwicklung der sogenannten D-vine quantile regression gelöst.
Weiter hat Cannon (2011) ein neuronales Netz, namens quantile regression neural network (QRNN),
entwickelt, welches den pinball loss als Risikofunktion verwendet. Dieser Ansatz nutzt die Vorteile von
neuronalen Netzen wie Nichtlinearität und Skalierbarkeit zur Bewältigung großer Datensätze für die Quantilregression.
Wir verbessern diese QRNN Modelle, indem wir sogenannte quasi quantile regression neural
networks verketten, um das Fehlen von quantile crossing zu garantieren, während wir die Vorteile
der neuronalen Netze erhalten. Das resultierende cQRNN-Modell eliminiert das Aufkommen von quantile
crossings, während das ursprüngliche Modell in unserer Simulationsstudie das Phänomen von quantile
crossings in bis zu 15 Prozent der Schätzungen im Testset zeigte. Darüber hinaus wird die Bedeutung der
Unsicherheit von neuronalen Netzen durch die Einführung des Konzepts von Tagasovska, Ozdemir, and
Brando (2023) angesprochen. Wir verbessern den Algorithmus, indem wir eine D-vine quantile regression
sowohl auf den letzten hidden layer als auch auf die responsvariable eines QRNN-Modells anpassen. Der
resultierende D-Vine Copula wird verwendet, um Daten zu generieren, wodurch das zugrunde liegende
Modell effektiv "gebootstrapt" wird. Dies wird erreicht, indem der letzte hidden layer von Kopien des
originalen QRNN unter Verwendung der generierten Daten erneut trainiert wird. Schließlich werden die
Modelle in einer Simulationstudie sowie in einer realen Anwendung verglichen, bei der wir den bedingten
condittional value at risk, unter Verwendung der fünf Fama- und French-Faktoren (Fama and French 2014) als Variablen, schätzen. Wir kommen zu dem Schluss, dass das das cumulative quantile regression neural network (cQRNN) ein überlegenes Modell im Vergleich zum ursprünglichen quantile regression neural network (QRNN) darstellt, da es das Aufkommen von quantile crossings eliminiert und gleichzeitig eine hohe Genauigkeit beibehält.
«
Die Quantilregression hat in der statistischen Modellierung zunehmend an Bedeutung gewonnen und
findet in verschiedenen Bereichen Anwendung als ergänzender Ansatz zur linearen Regression. Probleme
wie quantile crossing und die Annahme der Linearität gehören zu den Nachteilen der klassischen
linearen Quantilregression, die von Koenker and Bassett Jr (1978) entwickelt wurde. Kraus and Czado
(2017) haben diese Probleme durch die Entwicklung der sogenannten D-vine quantile regression gelöst.
We...
»