Moderne High-Performance-Computing-Systeme werden immer komplexer. Um diese Systeme besser verwalten und Einblicke in diese bekommen zu können, haben sich HPC-Institutionen den Hardware-Leistungsdaten zugewandt. Die Sammlung und Nutzung dieser Zeitreihendaten hilft dabei, zu verstehen, was in diesen Systemen vorgeht. In der Lage zu sein, die Ähnlichkeiten zwischen Jobs zu messen, ist ein wichtiger erster Schritt in Richtung der Effizienzsteigerung eines HPC-Clusters, da diese Messungen notwendig sind, um das Verhalten der Benutzer zu verstehen oder um anomales Verhalten zu erkennen. In dieser Arbeit werden verschiedene Ansätze zur Generierung und Auswertung von Job-Repräsentationen für Job Similarity Scores am Beispiel der vorhandenen Daten und Infrastruktur der RWTH Aachen diskutiert. Dazu werden zwei Dimensionalitätsreduktionsverfahren und zwei Clustering-Algorithmen verwendet und evaluiert. Zusätzlich wird ein neues Maß zur Bewertung von Clustering-Ergebnissen im Bezug auf die Job-Ähnlichkeit vorgeschlagen, welches Benchmark-Läufe benutzt. Dieses Maß wird dann verwendet, um die verschiedenen Ansätze zu bewerten.
«
Moderne High-Performance-Computing-Systeme werden immer komplexer. Um diese Systeme besser verwalten und Einblicke in diese bekommen zu können, haben sich HPC-Institutionen den Hardware-Leistungsdaten zugewandt. Die Sammlung und Nutzung dieser Zeitreihendaten hilft dabei, zu verstehen, was in diesen Systemen vorgeht. In der Lage zu sein, die Ähnlichkeiten zwischen Jobs zu messen, ist ein wichtiger erster Schritt in Richtung der Effizienzsteigerung eines HPC-Clusters, da diese Messungen notwendig...
»