Benutzer: Gast  Login
Originaltitel:
Adversarial Robustness of Graph Neural Networks
Übersetzter Titel:
Robustheit von Graph-Neuronalen Netzwerken gegenüber Feindlichen Angriffen
Autor:
Zügner, Daniel
Jahr:
2022
Dokumenttyp:
Dissertation
Fakultät/School:
Fakultät für Informatik
Betreuer:
Günnemann, Stephan (Prof. Dr.)
Gutachter:
Günnemann, Stephan (Prof. Dr.); Papalexakis, Evangelos (Prof. Dr.)
Sprache:
en
Fachgebiet:
DAT Datenverarbeitung, Informatik
Stichworte:
graph neural networks; graph mining; machine learning; deep learning
Übersetzte Stichworte:
graph-neuronale netze; graph mining; maschinelles lernen; deep learning
TU-Systematik:
DAT 600; DAT 703; DAT 708
Kurzfassung:
In this thesis we look at graph neural networks (GNNs) from a perspective of adversarial robustness. We generalize the notion of adversarial attacks -- small perturbations to the input data deliberately crafted to mislead a machine learning model -- from traditional vector data such as images to graphs. We further propose robustness certification procedures for perturbations of the node attributes as well as the graph structure.
Übersetzte Kurzfassung:
In dieser Doktorarbeit werden Graph-neuronale Netze (GNNs) aus der Perspektive der feindlichen Robustheit betrachtet. Das Konzept der feindlichen Angriffe -- kleiner Störungen in den Eingabedaten, um ein Machine-Learning-Modell zu täuschen -- wird generalisiert von traditionellen unabhängigen Datentypen wie Bildern hin zu Graphen. Weiterhin werden Methoden für die mathematische Zertifizierung der Robustheit von GNNs gegenüber Störungen der Knoten-Attribute sowie der Graph-Struktur präsentiert.
WWW:
https://mediatum.ub.tum.de/?id=1641938
Eingereicht am:
07.02.2022
Mündliche Prüfung:
18.05.2022
Dateigröße:
3625595 bytes
Seiten:
177
Urn (Zitierfähige URL):
https://nbn-resolving.de/urn/resolver.pl?urn:nbn:de:bvb:91-diss-20220518-1641938-1-8
Letzte Änderung:
30.06.2022
 BibTeX