Scalability in Ill-posed Machine Learning Problems: Bridging Least Squares Methods with (Non-)convex Algorithms
Übersetzter Titel:
Skalierbarkeit schlecht konditionierter Machine-Learning-Probleme: der Verbindungen zwischen der Methode der kleinsten Quadrate und (nicht-)konvexen Algorithmen
We introduce novel algorithms to address some challenges in machine learning, including ill-conditioned low-rank matrix retrieval, constrained least squares, and high-dimensional regression with unknown noise. By bridging least squares with modern (non-)convex optimization, our methods achieve scalability, data efficiency, and robustness. We provide theoretical guarantees with minimal assumptions and numerically validate their performance.
Übersetzte Kurzfassung:
Thema der Arbeit sind neuartige Algorithmen für Aktuelle Herausforderungen im maschinellen Lernen, insbesondere für die Rekonstruktion von schlecht konditionierten Matrizen niedrigen Ranges, beschränkte kleinste Quadrate und hochdimensionale Regression mit unbekanntem Rauschterm. Die Kombination von Techniken der kleinsten Quadrate mit moderner (nicht-)konvexer Optimierung gewährleistet Skalierbarkeit, Dateneffizienz und Robustheit. Neben der Bereitstellung theoretischer Garantien unter minimalen Annahmen wird die Leistungsfähigkeit der Methoden numerisch validiert.
«
Thema der Arbeit sind neuartige Algorithmen für Aktuelle Herausforderungen im maschinellen Lernen, insbesondere für die Rekonstruktion von schlecht konditionierten Matrizen niedrigen Ranges, beschränkte kleinste Quadrate und hochdimensionale Regression mit unbekanntem Rauschterm. Die Kombination von Techniken der kleinsten Quadrate mit moderner (nicht-)konvexer Optimierung gewährleistet Skalierbarkeit, Dateneffizienz und Robustheit. Neben der Bereitstellung theoretischer Garantien unter minimale...
»