Diesen Meilenstein haben nun Hartmut Neven und sein Team von Google Quantum AI erreicht. Basis ihrer Tests bildete der neu entwickelten Quantenchip „Willow“, der Quantenprozessoren mit 72 und 105 supraleitenden Quantenpunkten als Qubits umfasst. Diese wurden zu logischen Qubits mit 17, 49 oder 101 physikalischen Qubits zusammengefasst. Dabei bestand die 101-Qubit-Einheit beispielsweise aus 49 Daten-Qubits, 48 Mess-Qubits und vier zusätzlichen Kontroll-Qubits, wie das Team erklärt.
Für ihre Fehlerkorrektur-Tests ließen die Forschenden ihre logischen Qubits rund eine Million Rechenzyklen lang laufen und ermittelten jeweils, wie hoch die Fehlerrate war. Eine optimierte Auslese-Technik erlaubte es zudem, die Daten nahezu in Echtzeit auszulesen.
Halbierte Fehlerrate, verlängerte Lebensdauer
Das Ergebnis ist eine Fehlerkorrektur, die mit zunehmender Größe der logischen Qubits exponentiell sinkt. „Jedesmal, wenn sich die Distanzen des Oberflächencodes um zwei erhöhen, reduziert sich der logische Fehler pro Zyklus um mehr als die Hälfte“, berichten Neven und seine Kollegen. „Diese historische Errungenschaft wird in unserem Fachgebiet als ‚unter der Schwelle‘ bezeichnet – es verringert die Fehler, während man die Zahl der Qubits erhöht.“
Für den 72-Qubit-Prozessor sank die Fehlerrate bis unter ein Millionstel. Beim 101-Qubit-Prozessor mit den größten logischen Qubits lag die Fehlerrate bei einem Tausendstel. Der verbesserte digitale Coprozessor erlaubte es zudem, die Fehler und Fehlerraten nahezu in Echtzeit auszulesen. „Das ist wichtig, weil einige logische Operationen nicht-deterministisch sind – sie hängen von logischen Resultatmessungen ab, die unmittelbar interpretiert werden müssen“, erklären Neven und seine Kollegen.
Parallel dazu verdoppelte sich die Lebensdauer der logischen Qubits auf 291 Mikrosekunden – weit über das von einzelnen Qubits erreichbare Maß hinaus, wie die Forscher berichten. Dadurch verlängert sich die Zeit, in der man Rechenoperationen durchführen kann. Im Test absolvierte der Willow-Quantenchip die Testaufgabe, die sogenannte Random Circuit Benchmark (RCS) in weniger als fünf Minuten. Die leistungsstärksten Supercomputer hätten dafür nach Google-Aussagen 1025 Jahre benötigt.
Das steckt im neuen Quanten-Chip Willow.© Google Quantum AI
Erste Fehlerkorrektur jenseits des Break-Even-Punkts
Nach Ansicht des Forschungsteams eröffnet ihre Technologie damit wichtige Voraussetzungen für die Weiterentwicklung von Quantencomputern. „Unsere Resultate demonstrieren Systeme, die bei Skalierung die Anforderungen von großskaligen, fehlertoleranten Quantenalgorithmen erfüllen könnten“, schreiben Neven und sein Team. Eine weitere Voraussetzung sei auch die Tatsache, dass sie ihre Experimente über mehrere Stunden und mit bis zu einer Million Zyklen hinweg durchführen konnten, ohne dass die Leistung stark abnahm.
„Diese Arbeit von Google erreicht sehr überzeugend erstmals effektive Quantenfehlerkorrektur jenseits des Break-Even-Punktes“, kommentiert auch Frank Wilhelm-Mauch, Leiter des Instituts für Quantencomputer-Analytik am Forschungszentrum Jülich. „Es wurde theoretisch erwartet, dass dies möglich ist. Bisher wurde es aber noch nicht experimentell erreicht.“ Die Experimente mit dem Quantenprozessor von Google liefern nun diesen experimentellen Beweis.
Wichtiger Schritt, aber weitere müssen folgen
Allerdings räumen die Wissenschaftler auch ein, dass es bis zu einem großen, breit einsetzbaren Quantenrechner noch einiges zu verbessern gibt. „Zwischen den aktuellen Fehlerraten und den Anforderungen für das praktische Quantencomputing liegen noch immer einige Größenordnungen“, erklären sie. Konkret bedeutet dies: Um ausreichend niedrige Fehlerquoten auch bei größeren Quantencomputern zu erreichen, müssten die logischen Qubits nach derzeitigem Stand der Fehlerkorrektur mindestens 1.457 physikalische Qubits umfassen.
Ähnlich sieht dies der nicht an der Studie beteiligte Physiker Stefan Filipp von der Technischen Universität München: „Die Arbeit zeigt in bemerkenswerter Weise auf, wie schnell die Technologie in Richtung fehlertolerante Quantencomputer voranschreitet“, erklärt er. „Wie jedoch auch das Google-Team in ihrem Artikel schreibt, gibt es noch einige Herausforderungen zu meistern, um die ersten Algorithmen ausführen zu können. Nicht nur muss die Qualität und die Anzahl an Qubits noch signifikant erhöht werden, es müssen auch die Echtzeit-Dekoder noch signifikant verbessert werden.“ (Nature, 2024; doi: 10.1038/s41586-024-08449-y)
Quelle: Nature, Google Quantum AI, Science Media Center
10. Dezember 2024
- Nadja Podbregar