Die jüngsten Fortschritte in der Entwicklung von Quantenhardware markieren den Beginn der Noisy Intermediate-Scale Quantum (NISQ) Ära, welche durch Geräte mit einer begrenzten Anzahl von Qubits und erheblichem Rauschen gekennzeichnet ist. Variationelle Quantenalgorithmen (VQAs) haben sich als potenzielle Kandidaten für die Erzielung von Quantenvorteilen in dieser verrauschten Ära herauskristallisiert, insbesondere auf dem Gebiet der Optimierung. Diese hybriden Algorithmen kombinieren klassische Optimierung mit kurzen, parametrisierten Quantenschaltkreisen, um eine Funktion zu minimieren. Trotz ihrer vielversprechenden Eigenschaften stehen VQAs vor erheblichen Herausforderungen, die oft durch Ergebnisse überschattet werden, die auf klein skalierten Problemen und limitierten Tests basieren, so dass ihre Praxistauglichkeit für reale Anwendungen ungewiss ist. Diese Arbeit bietet eine systematische Untersuchung der Skalierbarkeit von VQAs bei der Lösung von kombinatorischen Optimierungsproblemen. Anhand einer umfassenden empirischen Studie wird die Leistung etablierter, klassischer Optimierer bei der Minimierung von VQA-Verlustfunktionen auf zufälligen quadratischen, uneingeschränkten binären Optimierungsproblemen (QUBO) bewertet. Die Studie berücksichtigt unterschiedliche Gauß'sche Rauschpegel und steigende Systemgrößen, wobei der numerische Versuchsaufbau ausführlich begründet wird. Die Ergebnisse zeigen, dass für feste Systemgrößen die Fähigkeit aller getesteten Optimierer, optimale oder nahezu optimale Lösungen zu finden, stark abnimmt, sobald eine kritische Rauschschwelle überschritten wird. Bemerkenswert ist, dass dieser Schwellenwert mit zunehmender Systemgröße exponentiell abnimmt, was weit über die Auswirkungen hinausgeht, die man von dem gut dokumentierten Phänomen des Barren Plateaus erwartet. Übersetzt man die Ergebnisse in praktische Begriffe wie Fehlerraten oder Messanforderungen, so zeigt sich, dass der Ressourcenbedarf für die Lösung praktisch relevanter Probleme prohibitiv hoch ist, selbst unter der Annahme einer fehlertoleranten Hardware. Diese Anforderungen stehen in starkem Gegensatz zu der Effizienz der besten klassischen Löser. Dies lässt ernsthafte Zweifel an der Realisierbarkeit eines praktischen Quantenvorteils bei der Optimierung mit variationellen Quantenalgorithmen aufkommen. Es unterstreicht daher die Notwendigkeit, grundlegend andere Algorithmen und Problemdomänen zu erforschen, um in naher Zukunft einen Quantennutzen zu erzielen. Die in dieser Arbeit vorgestellte Methodik dient als vielseitiges Framework für die Bewertung der Skalierbarkeit und Durchführbarkeit beliebiger Quantenoptimierungsalgorithmen und trägt zu einer fundierteren Einschätzung der Grenzen und Möglichkeiten von Quantencomputing im Allgemeinen bei.
«
Die jüngsten Fortschritte in der Entwicklung von Quantenhardware markieren den Beginn der Noisy Intermediate-Scale Quantum (NISQ) Ära, welche durch Geräte mit einer begrenzten Anzahl von Qubits und erheblichem Rauschen gekennzeichnet ist. Variationelle Quantenalgorithmen (VQAs) haben sich als potenzielle Kandidaten für die Erzielung von Quantenvorteilen in dieser verrauschten Ära herauskristallisiert, insbesondere auf dem Gebiet der Optimierung. Diese hybriden Algorithmen kombinieren klassische...
»