Benutzer: Gast  Login
Originaltitel:
Shared Memory Programming on NUMA-based Clusters using a General and Open Hybrid Hardware/Software Approach 
Übersetzter Titel:
Programmieren mit gemeinsamem Speicher auf NUMA-basierten Clustern mittels eines allgemeinen und hybriden Hardware/Software Ansatzes 
Jahr:
2001 
Dokumenttyp:
Dissertation 
Institution:
Fakultät für Informatik 
Betreuer:
Bode, Arndt (Prof. Dr.) 
Gutachter:
Hellwagner, Hermann (Prof. Dr.) 
Format:
Text 
Sprache:
en 
Fachgebiet:
DAT Datenverarbeitung, Informatik 
Stichworte:
Computer Science; Parallel programming; Shared memory; Commodity cluster; NUMA architectures 
Übersetzte Stichworte:
Informatik; Parallele Programmierung; Gemeinsamer Speicher; Cluster aus Standardkomponenten; NUMA Architekturen 
Schlagworte (SWD):
Parallelverarbeitung; Gemeinsamer Speicher 
TU-Systematik:
DAT 416d 
Kurzfassung:
The widespread use of shared memory programming for High Performance Computing (HPC) is currently hindered by two main factors: the limited scalability of architectures with hardware support for shared memory and the abundance of existing programming models. In order to solve these issues, a comprehensive shared memory framework needs to be created which enables the use of shared memory on top of more scalable architectures and which provides a user--friendly solution to deal with the various di...    »
 
Übersetzte Kurzfassung:
Der Einsatz von Programmiermodellen auf der Basis von gemeinsamem Speicher auf lose gekoppelten Architekturen beruht hauptsächlich auf sogenannten " Distributed Shared Memory" (DSM) Systemen. Sie erzeugen mit Hilfe von Softwaremechanismen eine globale Speicherabstraktion des in Wirklichkeit verteilten Speichers und ermöglichen somit Anwendungen einen transparenten Zugriff auf den gesamten Speicher. Diese Art von Systemen haben sich allerdings bisher kaum durchgesetzt, was im wesentlichen auf zwei Hauptgründe zurückzuführen ist: zum einen sind DSM Systeme, trotz intensiver Forschung in den letzten Jahren, weiterhin mit Performanzproblemen behaftet, die den Einsatz für eine ganze Reihe von Anwendung unattraktiv machen. Zum anderen existiert zur Zeit eine Vielzahl verschiedener Systeme mit unterschiedlichen APIs und Ausführungsmodellen, wodurch die Portierung von Anwendungen erheblich erschwert wird. Um diese zwei Probleme anzugehen, wurde im Rahmen dieser Arbeit ein System, genannt HAMSTER (" Hybrid-dsm based Adaptive and Modular Shared memory archiTEctuRe" ), entwickelt. Es ist speziell für NUMA basierte Clusterarchitekturen gedacht, da diese ein Minimum an Hardwareunterstützung für einen gemeinsamen Speicher mit den Vorteilen von lose gekoppelten Systemen, wie Skalierbarkeit und Kosteneffizienz, verbinden. Diese Hardwareunterstützung wird direkt zur Implementierung eines Hybrid-DSM Systemes verwendet, das damit die typischen DSM Performanzprobleme vermeiden kann. Auf diesem DSM Kern aufbauend bietet HAMSTER eine große Palette von Diensten, aufgeteilt in mehrere orthogonale Module, die zur Implementierung von beliebigen Programmiermodellen mit gemeinsamem Speicher eingesetzt werden können. Dabei ist das System so gestaltet, daß derartige Implementierungen mit sehr wenig Komplexität verbunden sind. Dies ermöglicht die Erstellung vieler verschiedener Programmiermodelle auf der Basis eines einzelnen Kernes, was die Portierung von Anwendungen deutlich vereinfacht. Das HAMSTER System bietet somit eine offene und flexible Umgebung, die sich sehr einfach auf neue Anwendungs- und Programmiermodellszenarien anpassen läßt. Dies wurde im Rahmen der Arbeit an Hand mehrerer ausgewählter Programmiermodelle mit unterschiedlichen Anforderungen, von vollen Threadmodellen bis hin zu Emulationen von APIs bekannter DSM Systeme, gezeigt. 
Veröffentlichung:
Universitätsbibliothek der TU München 
Mündliche Prüfung:
06.07.2001 
Dateigröße:
1503371 bytes 
Seiten:
226 
Letzte Änderung:
03.07.2007