Föderales Lernen (FL) ist als neues Paradigma entstanden, das das Training neuronaler Netze auf privaten Daten ermöglicht, die mehreren Benutzern gehören. Benutzer führen lokale Berechnungen auf ihren Daten durch und teilen nur die Berechnungsergebnisse mit dem Koordinator, der den Lernprozess koordiniert. FL steht vor vielen Herausforderungen, wie der Gewährleistung der Privatsphäre der Benutzerdaten und der Sicherheit gegen böswillige Benutzer. Es wurde gezeigt, dass der Koordinator, indem er nur die Berechnungsergebnisse beobachtet, Informationen über die Benutzerdaten ableiten kann. In der Literatur wird die sichere Aggregation vorgeschlagen, bei der nur das aggregierte Ergebnis mit dem Koordinator geteilt wird. Dadurch wird die Privatsphäre gewährleistet. Sicherheit wird typischerweise durch das Durchführen von Statistiken über die Berechnungen der Benutzer und das Aussondern von Ausreißern gewährleistet. Somit entsteht ein natürlicher Trade-off zwischen Privatsphäre (nicht das Erlernen der Benutzerdaten) und Sicherheit (erforderlich, um Statistiken über die Benutzerdaten zu erlernen, um die Ausreißer zu eliminieren). Vorgeschlagene Lösungen für diese Herausforderung entwerfen Geheimteilungsverfahren, um die gewünschten Statistiken zu berechnen und die Ausreißer auf private Weise zu eliminieren. Diese Verfahren garantieren jedoch die rechnerische Privatsphäre, d.h., sie gehen davon aus, dass Lauschangreifer über begrenzte Rechenleistung verfügen.
Wir entwerfen ein privates und sicheres föderales Lernschema, das perfekte informations-theoretische Privatsphäre garantiert und so wenig Informationen wie möglich über die Benutzerdaten preisgibt. Wir bauen unser Schema auf FLTrust auf. Der Koordinator berechnet einen Vertrauensscore (TS) für jedes Berechnungsergebnis der Benutzer basierend auf einem kleinen repräsentativen Datensatz beim Koordinator und verwendet diese TSs als Gewichtungen für die Aggregation. Wir führen eine neuartige Methode ein, um die Aggregation durchzuführen, indem wir nur eine privatisierte Version der Benutzerberechnungen beobachten. Wir approximieren die ReLU-Funktion, die zur Berechnung der TSs verwendet wird, durch ein Polynom und verlassen uns dann auf den additiven Homomorphismus der Geheimteilung. Wir präsentieren zwei verschiedene Schemas. Das erste verwendet eine vertrauenswürdige Autorität, die Beaver Triples verteilt, welche eine multiplikative Homomorphie-Eigenschaft der Geheimanteile freischalten. Das zweite verwendet stattdessen Lagrange Coded Computing zur Auswertung polynomialer Funktionen der Geheimanteile. Wir vergleichen unsere Schemas mit der Literatur und zeigen, dass das erste Schema alle bestehenden in Bezug auf Berechnungs- und Kommunikationskomplexität übertrifft und gleichzeitig eine bessere Privatsphäre gewährleistet. Der einzige Haken ist die Notwendigkeit einer vertrauenswürdigen Autorität, die in einer Vorverarbeitungsphase, bevor die Daten bekannt sind, Zufälligkeiten an die Benutzer verteilt.
«
Föderales Lernen (FL) ist als neues Paradigma entstanden, das das Training neuronaler Netze auf privaten Daten ermöglicht, die mehreren Benutzern gehören. Benutzer führen lokale Berechnungen auf ihren Daten durch und teilen nur die Berechnungsergebnisse mit dem Koordinator, der den Lernprozess koordiniert. FL steht vor vielen Herausforderungen, wie der Gewährleistung der Privatsphäre der Benutzerdaten und der Sicherheit gegen böswillige Benutzer. Es wurde gezeigt, dass der Koordinator, indem er...
»