Benutzer: Gast  Login
Originaltitel:
Defending Neural Networks with Activation Analysis
Übersetzter Titel:
Verteidigung neuronaler Netze mit Aktivierungsanalyse
Autor:
Sperl, Philip
Jahr:
2023
Dokumenttyp:
Dissertation
Fakultät/School:
TUM School of Computation, Information and Technology
Betreuer:
Eckert, Claudia (Prof. Dr.)
Gutachter:
Eckert, Claudia (Prof. Dr.); Freiling, Felix (Prof. Dr.)
Sprache:
en
Fachgebiet:
DAT Datenverarbeitung, Informatik
TU-Systematik:
DAT 460; DAT 050
Kurzfassung:
Neural networks are vulnerable to adversarial examples. In this thesis, we propose a set of defense strategies allowing a protected application. We show that the activation values of neural networks carry robustness-sensitive information. Based on this insight, we first present an architecture allowing a reliable detection of adversarial examples. We show that this architecture can further be adapted to be used in anomaly detection. Finally, we present means to leverage an analysis of the models...     »
Übersetzte Kurzfassung:
Neuronale Netze sind anfällig für Adversarial Examples. In dieser Arbeit werden Verteidigungsstrategien vorgeschlagen, die eine geschützte Anwendung ermöglichen. Es wird gezeigt, dass die Aktivierungswerte der Modelle Informationen relevant für deren Robustheit enthalten. Zunächst wird eine Architektur vorgestellt, die eine Erkennung von Angriffen ermöglicht. Diese Architektur wird angepasst, und zur Anomalieerkennung eingesetzt. Schließlich werden Mittel vorgestellt, um eine Analyse der Modella...     »
WWW:
https://mediatum.ub.tum.de/?id=1700602
Eingereicht am:
12.04.2023
Mündliche Prüfung:
19.12.2023
Dateigröße:
2845137 bytes
Seiten:
134
Urn (Zitierfähige URL):
https://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:91-diss-20231219-1700602-1-7
Letzte Änderung:
19.01.2024
 BibTeX