Diese Arbeit untersucht, ob die Integration von variationalen Quantenschaltkreisen (VQC) in Reinforcement-Learning-(RL)-Frameworks die inhärenten Herausforderungen, denen klassisches RL gegenübersteht – wie die Skalierung auf kontinuierliche Aktions- und Zustandsräume in stärker industrialisierten Umgebungen, die sich ausschließlich auf lokale Merkmalsgenerierung stützen – lösen kann. Ziel ist es zu bestimmen, ob Quanten- und Hybridmodelle im Vergleich zu klassischen neuronalen Netzen (NN) bei simulierten Roboter-Navigationsaufgaben Leistungs- und Parametereffizienzvorteile bieten. Eine fortschrittliche RL-Umgebung wird implementiert, die eine kontinuierliche Roboter-Navigation mit lokalen Sensoreingaben wie LiDAR, Geschwindigkeit und Orientierung simuliert, um reale Bedingungen so genau wie möglich nachzubilden. Ein dynamisches Belohnungssystem fördert kontinuierlichen Fortschritt und bestraft Ineffizienzen. Im Rahmen des Deep Deterministic Policy Gradient (DDPG) werden drei Funktionsapproximationen untersucht: klassische NNs sowie zwei VQC-basierte Ansätze, Hybrid und Quanten. Jeder Ansatz wird über mehrere VQC-Konfigurationen hinweg bewertet, indem die Anzahl der Qubits und Schichten variiert wird, um die Auswirkungen auf Leistung und Skalierbarkeit zu bestimmen. Die Ansätze werden dann mit klassischen NNs mit einer ähnlichen Anzahl an Parametern verglichen, um die relative Leistung und Parametereffizienz zu bewerten. Das Training und die Tests aller 117 Modelle erfolgen in einer simulierten Roboter-Navigationsumgebung, um systematisch die Leistung zu vergleichen und die Stärken und Schwächen der Integration von Quantencomputing in RL für robotische Anwendungen aufzudecken. Die Ergebnisse zeigen, dass quantum-verbesserte Modelle unter Verwendung von VQCs erfolgreich kontinuierliche Roboter-Navigationsaufgaben unter Verwendung nur lokaler Merkmale in drei Umgebungen unterschiedlicher Schwierigkeit erlernen. Eine Erhöhung der Tiefe der VQCs, insbesondere durch das Hinzufügen weiterer Schichten, verbessert die Leistung erheblich, wobei tiefere Quanten-Schaltkreise (QC) einfachere übertreffen. Hybride Modelle bieten eine ausgewogene Leistung, insbesondere in komplexeren Umgebungen, da sie Merkmale sowohl von Quanten- als auch klassischen Ansätzen zeigen. Einige Quantenmodelle weisen eine überlegene Parametereffizienz auf, indem sie mit signifikant weniger trainierbaren Parametern vergleichbare oder bessere Ergebnisse als klassische Modelle erzielen. Die Ergebnisse bestätigen das Potenzial von Quantum Reinforcement Learning (QRL), Herausforderungen bei kontinuierlichen Roboter-Navigationsaufgaben zu bewältigen, und weisen auf mögliche Quanten-Vorteile in Bezug auf Parametereffizienz hin. Die praktische Implementierung auf echter Quanten-Hardware bleibt jedoch aufgrund aktueller Hardware-Beschränkungen und Rauschprobleme eine Herausforderung. Weitere Forschung ist erforderlich, um fortschrittliche Algorithmen zu entwickeln und Probleme wie Hyperparameter-Sensitivität und Barren Plateaus zu lösen, um das volle Potenzial von quantum-verbessertem RL in der Robotik auszuschöpfen.
«
Diese Arbeit untersucht, ob die Integration von variationalen Quantenschaltkreisen (VQC) in Reinforcement-Learning-(RL)-Frameworks die inhärenten Herausforderungen, denen klassisches RL gegenübersteht – wie die Skalierung auf kontinuierliche Aktions- und Zustandsräume in stärker industrialisierten Umgebungen, die sich ausschließlich auf lokale Merkmalsgenerierung stützen – lösen kann. Ziel ist es zu bestimmen, ob Quanten- und Hybridmodelle im Vergleich zu klassischen neuronalen Netzen (NN) bei s...
»