This thesis considers two complementary approaches for decoupling in composite optimization problems by lower relaxations. The first approach is based on component-wise infimal convolution with generalized proximity functions. The approach is applied to the problem of federated learning. The second approach is based on lifting and Lagrangian relaxations and is applied to partially separable cost functions with total variation like regularization.
Übersetzte Kurzfassung:
Diese Arbeit betrachtet zwei komplementäre Ansätze zur Entkopplung in zusammengesetzten Optimierungsproblemen mittels unterer Relaxationen. Der erste Ansatz basiert auf einer komponentenweisen Infimalfaltung mit verallgemeinerten Proximity-Funktionen. Der Ansatz wird auf das Problem des federated learning angewendet. Der zweite Ansatz basiert auf Lifting und Lagrange-Relaxationen und wird auf partiell separierbare Kostenfunktionen mit totaler Variationsregularisierung angewendet.