Kausale Entdeckung bedeutet, einen gerichteten azyklischen Graphen (DAG) zu lernen, der ein kausales Modell kodiert. Aufgrund des großen kombinatorischen Suchraums kann dieses Modellauswahlproblem schwierig zu lösen sein, insbesondere, wenn nicht-parametrische Kausalmodelle betrachtet werden. Eine neuere Forschungsrichtung versucht, die kombinatorische Suche zu umgehen, indem sie die kausale Entdeckung als kontinuierliches Optimierungsproblem betrachtet. Zu diesem Zweck werden Beschränkungen angenommen, die die Azyklizität des Graphen charakterisieren. Bestehende Arbeiten zu nicht-parametrischen Einstellungen basieren auf endlich-dimensionalen Approximationen der nicht-parametrischen Beziehung zwischen den Knoten, was zu einem Score-basierten kontinuierlichen Optimierungsproblem unter einer glatten Azyklizitätsbeschränkung führt. In dieser Arbeit entwickeln wir einen alternativen Approximationsansatz, indem wir mit reproduzierenden Kernel-Hilbert-Räumen (RKHS) arbeiten und allgemeine sparsamkeitsinduzierende Regularisierungsterme verwenden, die auf partiellen Ableitungen beruhen. In diesem Rahmen führen wir einen erweiterten RKHS-Repräsentantensatz ein. Um Azyklizität zu erhalten, befürworten wir die log-determinante Formulierung der Azyklizitätsbeschränkung und zeigen ihre Stabilität. Schließlich untersuchen wir die Leistung unseres resultierenden RKHS-DAGMA-Verfahrens in einer Reihe von Simulationen sowie einer illustrativen Datenanalyse.
«
Kausale Entdeckung bedeutet, einen gerichteten azyklischen Graphen (DAG) zu lernen, der ein kausales Modell kodiert. Aufgrund des großen kombinatorischen Suchraums kann dieses Modellauswahlproblem schwierig zu lösen sein, insbesondere, wenn nicht-parametrische Kausalmodelle betrachtet werden. Eine neuere Forschungsrichtung versucht, die kombinatorische Suche zu umgehen, indem sie die kausale Entdeckung als kontinuierliches Optimierungsproblem betrachtet. Zu diesem Zweck werden Beschränkungen ang...
»