Ensuring the safety of AI systems becomes more and more relevant, e.g., using methods like verification, monitoring, and explainability. This thesis makes a step in this direction by presenting the following solution approaches: an abstraction framework for Neural Networks (NNs), approaches for easier and more transparent monitoring of NNs, a use case of NNs and their explainability, and a learning technique for the representation of strategies for partially observable Markov decision processes.
Übersetzte Kurzfassung:
Die Gewährleistung der Sicherheit von KI-Systemen wird immer wichtiger, z.B. unter Verwendung von Methoden wie Verifikation, Monitoring und Erklärbarkeit. Diese Arbeit präsentiert folgende Lösungsansätze: eine Abstraktion für Neuronale Netze (NNs), Ansätze zur einfacheren und transparenteren Überwachung von NNs, einen Anwendungsfall von NNs und deren Erklärbarkeit sowie eine Lerntechnik zur Darstellung von Strategien für teilweise beobachtbare Markov-Entscheidungsprozesse.