Informationskriterien sind eine wichtige Entscheidungshilfe bei der Modellwahl. Sie erweitern die Maximum-Likelihood-Methode um einen Strafterm. Beim Bayesschen Informationskriterium verhält sich dieser Strafterm asymptotisch wie das Marginal-Likelihood-Integral, sofern das zugrunde liegende Modell einige Regularitätsbedingungen erfüllt. Für Modelle, die diese Regularitätsbedingungen nicht erfüllen, gilt diese
asymptotische Beziehung hingegen nicht. Watanabe hat gezeigt hat, dass das Marginal-Likelihood-Integral sich bei diesen sogenannten "singulären" Modellen asymptotisch anders verhält. Drton und Plummer haben hierauf aufbauend eine Verallgemeinerung des Bayesschen Informationskriteriums entwickelt, dass auch die singulären Modelle abdeckt. In dieser Thesis wird die mathematische Theorie beginnend auf dem regulären Fall erläutert. Dann wird der singuläre Fall aufbauend auf Watanabes Resultaten erklärt.
Schlussendlich wird das Kriterium von Drton und Plummer untersucht.
«
Informationskriterien sind eine wichtige Entscheidungshilfe bei der Modellwahl. Sie erweitern die Maximum-Likelihood-Methode um einen Strafterm. Beim Bayesschen Informationskriterium verhält sich dieser Strafterm asymptotisch wie das Marginal-Likelihood-Integral, sofern das zugrunde liegende Modell einige Regularitätsbedingungen erfüllt. Für Modelle, die diese Regularitätsbedingungen nicht erfüllen, gilt diese
asymptotische Beziehung hingegen nicht. Watanabe hat gezeigt hat, dass das Margina...
»