Neuronale Netze sind anfällig für Adversarial Examples. In dieser Arbeit werden Verteidigungsstrategien vorgeschlagen, die eine geschützte Anwendung ermöglichen. Es wird gezeigt, dass die Aktivierungswerte der Modelle Informationen relevant für deren Robustheit enthalten. Zunächst wird eine Architektur vorgestellt, die eine Erkennung von Angriffen ermöglicht. Diese Architektur wird angepasst, und zur Anomalieerkennung eingesetzt. Schließlich werden Mittel vorgestellt, um eine Analyse der Modellaktivierungen während des Trainings neuronaler Netze zu nutzen.
«
Neuronale Netze sind anfällig für Adversarial Examples. In dieser Arbeit werden Verteidigungsstrategien vorgeschlagen, die eine geschützte Anwendung ermöglichen. Es wird gezeigt, dass die Aktivierungswerte der Modelle Informationen relevant für deren Robustheit enthalten. Zunächst wird eine Architektur vorgestellt, die eine Erkennung von Angriffen ermöglicht. Diese Architektur wird angepasst, und zur Anomalieerkennung eingesetzt. Schließlich werden Mittel vorgestellt, um eine Analyse der Modella...
»