Das Ziel von Regressionsmodellen ist es, das Verhalten einer Variablen (soge-
nannte Zielvariable) bestmöglich mithilfe von anderen Variablen (Kovariablen) zu
erklären. Zu den bekanntesten Regressionsmodellen zählen die verallgemeinerten linearen Modelle (GLM), die den Erwartungswert der Zielvariablen durch eine mit
einer Linkfunktion transformierte Linearkombination der Kovariablen schätzen. Die
Kovariablen dürfen durch bekannte Transformationen linearisiert werden. Der Fokus dieser Arbeit liegt auf den verallgemeinerten additiven Modellen (GAM): Diese
bilden eine wichtige Erweiterung der GLM, da die Kovariablen durch unbekannte nichtlineare Funktionen transformiert sein dürfen. Die effektivste Approximation dieser Funktionen ist durch natürliche kubische Splines gegeben, da diese unter allen zweimal stetig differenzierbaren Funktionen gegebene Knoten bei minimaler Krümmung bezüglich der L2-Norm interpolieren (Holladay-Identität). Diese
Eigenschaft bewirkt, dass die natürlichen kubischen Splines sowohl das penalisierte
Kleinste-Quadrate-Kriterium als auch das Optimierungsproblem von Wüthrich und
Buser unter allen zweimal stetig differenzierbaren Funktionen minimieren. Anhand
eines Datensatzes einer Schadenversicherung werden Vor- und Nachteile der GAM
im Vergleich zu den GLM illustriert.
«
Das Ziel von Regressionsmodellen ist es, das Verhalten einer Variablen (soge-
nannte Zielvariable) bestmöglich mithilfe von anderen Variablen (Kovariablen) zu
erklären. Zu den bekanntesten Regressionsmodellen zählen die verallgemeinerten linearen Modelle (GLM), die den Erwartungswert der Zielvariablen durch eine mit
einer Linkfunktion transformierte Linearkombination der Kovariablen schätzen. Die
Kovariablen dürfen durch bekannte Transformationen linearisiert werden. Der Fokus dieser Arbeit...
»