Unexpected behavior in distributed systems can lead to failures that cause serious damage, making verification of its software essential. A common way for verification of software is performed using traces that are recorded from system executions. But, with growing size of such systems, trace-based verification becomes increasingly challenging due to the massive size and complexity of trace data. This work presents a novel Data Mining approach that learns the specifications using a step-wise approach, while solving shortcomings of existing approaches including support for multifunctionality, heterogeneous data and inclusion of domain knowledge.
«
Unexpected behavior in distributed systems can lead to failures that cause serious damage, making verification of its software essential. A common way for verification of software is performed using traces that are recorded from system executions. But, with growing size of such systems, trace-based verification becomes increasingly challenging due to the massive size and complexity of trace data. This work presents a novel Data Mining approach that learns the specifications using a step-wise ap...
»
Translated abstract:
Unerwartetes Verhalten verteilter Systeme kann einen verheerenden Schaden verursachen, weshalb die Verifikation ihrer Korrektheit essentiell ist. Aufzeichnung von Systemabläufen solcher Systeme erlauben dabei eine effiziente Verifikation. Die wachsende Größe und Komplexität dieser Aufzeichnungen in heutigen Systemen erfordert dabei neuartige Methoden hierfür. In dieser Arbeit wurde eine neuartige Data Mining Pipeline entwickelt, die diese Herausforderungen löst. In einem schrittweisen Verfahren werden multifunktionale, heterogene Daten verarbeitet und Experteninput integriert, um Spezifikationen zu lernen, die die Verifikation verteilter Systeme massiver Größe ermöglichen.
«
Unerwartetes Verhalten verteilter Systeme kann einen verheerenden Schaden verursachen, weshalb die Verifikation ihrer Korrektheit essentiell ist. Aufzeichnung von Systemabläufen solcher Systeme erlauben dabei eine effiziente Verifikation. Die wachsende Größe und Komplexität dieser Aufzeichnungen in heutigen Systemen erfordert dabei neuartige Methoden hierfür. In dieser Arbeit wurde eine neuartige Data Mining Pipeline entwickelt, die diese Herausforderungen löst. In einem schrittweisen Verfahren...
»