In den letzten Jahren hat das maschinelle Lernen (ML) erhebliche Fortschritte bei der Integration in viele Aspekte unseres Lebens gemacht. Zentralisierte ML-Paradigmen bieten zwar eine gute Leistung, erfordern aber in der Regel den Zugriff auf den gesamten Datensatz, was für bestimmte Aufgaben unpraktisch sein und Bedenken hinsichtlich des Datenschutzes aufwerfen kann. Federated Learning (FL) wurde vorgeschlagen, um dieses Problem anzugehen und von einem zentralisierten Trainingsansatz zu einem verteilten zu wechseln. FL-Clients bewahren ihre Daten für das lokale Training und senden die lokal optimierten Modell-Aktualisierungen für die Aggregation an den zentralen Server. Wie bei jedem verteilten System gibt es auch bei FL Probleme wie Sicherheit, Skalierbarkeit, Fehlertoleranz und Synchronisation. In früheren Arbeiten wurde vorgeschlagen, Function-as-a-Service (FaaS)-Plattformen zu verwenden, um einige dieser Probleme zu lösen und einen effizienten Trainingsprozess zwischen heterogenen Clients zu ermöglichen. FaaS ist ein effizientes Berechnungsmodell zur Ausführung zustandsloser Funktionen, ohne sich um die Verwaltung der Infrastruktur kümmern zu müssen. Darüber hinaus werden in FaaS-Umgebungen nur die verbrauchten Ressourcen in Rechnung gestellt, die dynamisch entsprechend der Nachfrage skaliert werden. Obwohl FaaS Probleme wie Skalierbarkeit und Infrastrukturverwaltung löst, bleiben einige Probleme bestehen, die von den Entwicklern behandelt werden müssen. Nachzügler in einem FL-System sind eines dieser Probleme. Die Auswirkungen von Nachzüglern können die Systemleistung stark beeinträchtigen, die Konvergenz verlangsamen oder die Trainingszeit erhöhen. Folglich müssen FL-Algorithmen gegen Nachzügler widerstandsfähig sein, damit das System effizient funktioniert. Unsere Arbeit konzentriert sich hauptsächlich auf das Problem von Nachzüglern, insbesondere beim FaaS-basiertem föderiertem Lernen. Wir schlagen eine neue cluster-basierte Strategie, FedLesScan, vor, um die Auswirkungen von Nachzüglern in Serverless-basierten föderierten Lernsystemen zu mildern. Wir bieten eine umfassende Bewertung unserer Strategie und vergleichen sie mit neuartigen FL-Ansätzen auf vier verschiedenen Datensätzen mit unterschiedlichen Anteilen von Nachzüglern. Im Vergleich zu neuen Ansätzen reduziert FedLesScan die Trainingszeit um durchschnittlich 8 % und behält einen Kostenvorteil von 20 %, während die Testgenauigkeit um 2 % verbessert wird
«
In den letzten Jahren hat das maschinelle Lernen (ML) erhebliche Fortschritte bei der Integration in viele Aspekte unseres Lebens gemacht. Zentralisierte ML-Paradigmen bieten zwar eine gute Leistung, erfordern aber in der Regel den Zugriff auf den gesamten Datensatz, was für bestimmte Aufgaben unpraktisch sein und Bedenken hinsichtlich des Datenschutzes aufwerfen kann. Federated Learning (FL) wurde vorgeschlagen, um dieses Problem anzugehen und von einem zentralisierten Trainingsansatz zu einem...
»