Mit steigender Rechenleistung, steigendem Datenumfang und Datendetailfülle sowie steigender Algorithmeneffizienz liefert die Simulation partieller Differentialgleichungen neue wissenschaftliche Erkenntnisse in vielen Anwendungsbereichen. Dabei sei hier die numerische Simulation auf räumlichen Diskretisierungen thematisiert. Alle drei Einflussfaktoren stoßen die Tür zu immer detaillierteren
Modellen und immer verlässlicheren Simulationen auf,
jedoch begleitet eine beständig wachsende Quelltextkomplexität eben diesen Fortschritt.
Um genau diese Komplexität in den Griff zu bekommen, greifen mehr und mehr Umsetzungen von Lösern zu partiellen Differentialgleichungen auf Frameworks,
also vorgefertigte Quelltextumgebungen respektive -ökosysteme, zurück. Kompetitive, zeitgemäße Frameworks müssen heute Multiskalenalgorithmik
für beliebig dimensionale Probleme mit sich ständig dynamisch ändernden räumlichen Diskretisierungen unterstützen. Trotz der geforderten Flexibilität in Daten und Datenzugriff sollte die Realisierung jedoch geringe Speicheranforderungen aufweisen, da sich zwischen
vorhandener Rechenleistung und Speicherbandbreite zunehmend Kluft auftut und sich beständig weitet.
Darüber hinaus muss sie moderne Rechnerarchitekturen sinnvoll, also öknomisch und effizient, nutzen und sollte auch dann auf Parallelrechnern skalieren, wenn sich Datenstrukturen und Datenzugriffsmuster permanent ändern.
Diese Arbeit präsentiert eine Umgebung, die die angesprochenen Herausforderungen mit adaptiven kartesischen Gittern angeht. Diese entstammen einem verallgemeinerten Oktalbaumkonzept und werden mit
raumfüllenden Kurven durchlaufen, wobei eine kleine, jedoch festgeschriebene Zahl an Stapeln als Daten-Container fungiert. In solch einer Umgebung lassen sich sich dynamisch ändernde Gitter mit wenigen Bits pro Datum ablegen. Klassische Ansätze veranschlagen hierzu oftmals mehrere tausend Bytes
und verlangen nach alternativen flexiblen Datenstrukturen,
die einen großen Laufzeit-Overhead nach sich ziehen.
Die Arbeit formalisiert zum Einen den neuen Ansatz, zum Anderen reduziert sie die Implementierungskomplexität - das algorithmische Prinzip ist seit einigen Jahren wohlbekannt - von einem exponentiellen auf ein lineares Wachstum in der
Raumdimension des Problems. Eine Modifikation des Traversierungsprinzips, das originär einer einfachen
Tiefensuche nacheifert, erlaubt schlussendlich, eine
Rechengebietszerlegungsstrategie mit einem dynamischen Lastausgleich umzusetzen.
Das Framework ist nach dem italienischen Mathematiker Giuseppe Peano benannt, der die zugrundeliegende raumfüllende Kurve entdeckt hat.
Der Implementierung Potential wird anhand eines geometrischen Mehrgitterlösers für die Poisson-Gleichung dargelegt. Dieser weist in Folge dann einen sehr geringen Speicherbedarf in Begleitung
sehr guter Cache-Trefferraten auf, wobei auch dynamische Gitterverfeinerung
und Lastbalancierung zur Anwendung kommen.
Eine Kombination all dieser Charakteristiken ist
üblicherweise schwer zu finden. Da sie direkt auf die Benutzung des Frameworks zurückzuführen
ist, besteht die berechtigte Hoffnung, dass das selbige den Weg zu einer multiskalen Strömungsdynamikanwendung auf instationären, hierarchischen Gittern ebnet.
«
Mit steigender Rechenleistung, steigendem Datenumfang und Datendetailfülle sowie steigender Algorithmeneffizienz liefert die Simulation partieller Differentialgleichungen neue wissenschaftliche Erkenntnisse in vielen Anwendungsbereichen. Dabei sei hier die numerische Simulation auf räumlichen Diskretisierungen thematisiert. Alle drei Einflussfaktoren stoßen die Tür zu immer detaillierteren
Modellen und immer verlässlicheren Simulationen auf,
jedoch begleitet eine beständig wachsende Quelltextk...
»