Unerwartetes Verhalten verteilter Systeme kann einen verheerenden Schaden verursachen, weshalb die Verifikation ihrer Korrektheit essentiell ist. Aufzeichnung von Systemabläufen solcher Systeme erlauben dabei eine effiziente Verifikation. Die wachsende Größe und Komplexität dieser Aufzeichnungen in heutigen Systemen erfordert dabei neuartige Methoden hierfür. In dieser Arbeit wurde eine neuartige Data Mining Pipeline entwickelt, die diese Herausforderungen löst. In einem schrittweisen Verfahren werden multifunktionale, heterogene Daten verarbeitet und Experteninput integriert, um Spezifikationen zu lernen, die die Verifikation verteilter Systeme massiver Größe ermöglichen.
«
Unerwartetes Verhalten verteilter Systeme kann einen verheerenden Schaden verursachen, weshalb die Verifikation ihrer Korrektheit essentiell ist. Aufzeichnung von Systemabläufen solcher Systeme erlauben dabei eine effiziente Verifikation. Die wachsende Größe und Komplexität dieser Aufzeichnungen in heutigen Systemen erfordert dabei neuartige Methoden hierfür. In dieser Arbeit wurde eine neuartige Data Mining Pipeline entwickelt, die diese Herausforderungen löst. In einem schrittweisen Verfahren...
»