Die Komplexität der Rekonstruktion einer Funktion in hohen Dimensionen ist für
moderne Computer mit regelmäßigen Gittern zu komplex. Dieser Fluch der Dimension-
alität kann mit der Sparse-Grid-Combination-Technique angegangen werden. Durch
die reduzierte Anzahl von Gitterpunkten wird die Komplexität reduziert, während
dennoch genaue Ergebnisse erzielt werden.
In dieser Arbeit wird die Regression mit der räumlich-adaptiven Kombinationstechnik
mit verschiedenen Ausführungsoptionen implementiert. Zwei Ansätze zur Regu-
larisierung, die das Problem der Überanpassung angehen, werden vorgestellt und
evaluiert. Zusätzlich kommen drei verschiedene Versionen für Opticom hinzu, die
als zusätzliche Optimierungen die Koeffizienten der Komponentengitter nach unter-
schiedlichen Kriterien aktualisieren. Die verschiedenen Ausführungsmöglichkeiten,
die im sparseSpACE 2 Framework implementiert sind, werden hinsichtlich Genauigkeit
und Komplexität miteinander verglichen. Es werden zusätzliche Tests durchgeführt,
die die Implementierung mit anderen gängigen Regressionsmethoden vergleichen. Die
Ergebnisse zeigen, dass die Vorhersagen von Testdaten in bestimmten Fällen besser
sind als neuronale Netze.
«
Die Komplexität der Rekonstruktion einer Funktion in hohen Dimensionen ist für
moderne Computer mit regelmäßigen Gittern zu komplex. Dieser Fluch der Dimension-
alität kann mit der Sparse-Grid-Combination-Technique angegangen werden. Durch
die reduzierte Anzahl von Gitterpunkten wird die Komplexität reduziert, während
dennoch genaue Ergebnisse erzielt werden.
In dieser Arbeit wird die Regression mit der räumlich-adaptiven Kombinationstechnik
mit verschiedenen Ausführungsoptionen implementi...
»