Technik

Quantencomputer durchbricht Fehlerschwelle

Google-AI-Quantenprozessor erreicht erstmals exponentiell sinkende Fehlerrate bei Skalierung

Quantencomputer
Ihre hohe Fehleranfälligkeit erschwert die Skalierung der Quantencomputer. Doch jetzt gibt es Fortschritte bei der Fehlerkorrektur. © Bartlomiej Wroblewski/ GettyImages

Wichtiger Fortschritt: Google-Forscher haben erstmals die Fehlerrate eines Quantencomputers unter einen kritischen Schwellenwert gesenkt – die Fehlerrate halbierte sich trotz Verdopplung der Qubitzahl. Dies gilt als wichtige Voraussetzung für die Skalierung von künftigen Quantenrechnern. Der Durchbruch mit dem Quantenchip „Willow“ gelang durch die Kombination mehrerer Daten- und Kontroll-Quantenbits zu logischen Qubits sowie durch verbesserte Auslese-Techniken, wie das Team in „Nature“ berichtet. Bis zu großskaligen Quantenrechnern sind aber weitere Verbesserungen nötig.

Quantencomputer sind dank quantenphysikalischer Phänomene wie Verschränkung und Überlagerung potenziell leistungsfähiger als digitale Rechner. Doch die große Stör-Anfälligkeit der Quantenbits sorgt bisher für zu kurze Laufzeiten und eine hohe Fehlerrate. Ohne effiziente Fehlerkorrektursysteme sind Quantencomputer daher nicht auf die nötigen Leistungen skalierbar – denn mit wachsender Zahl der Qubits steigt auch die Fehleranfälligkeit.

Eine mögliche Lösung für dieses Problem bietet die Einführung „logischer Qubits“ in Form des sogenannten Oberflächencodes. Dabei werden jeweils mehrere benachbarte Daten- und Mess-Qubits zu einer Einheit kombiniert, dem logischen Qubit. Durch dessen geometrische Struktur, den sogenannten Oberflächencode, können Fehler einzelner Qubits erkannt und ausgeglichen werden. Eine erste Version dieser Fehlerkorrektur präsentierten Forschende von Google Quantum AI bereits 2021, eine Weiterentwicklung folgte dann im Jahr 2023.

logische Qubits
Logische Qubits. © Hartmut Neven/ Google Quantum AI

Logische Qubits skaliert

Jetzt gibt es einen weiteren Fortschritt: Dem Google-Team ist es erstmals gelungen, die Fehlerrate ihres Quantencomputers unter einen kritischen Schwellenwert zu senken. Demnach funktioniert die Skalierung von Quantenrechnern nur dann, wenn die Fehlerkorrektur exponentiell mit der Zahl der physikalischen Qubits pro logischem Qubit steigt. Anders ausgedrückt: Die Fehlerkorrektur muss gut genug sein, um die durch hinzukommende Qubits steigende Fehlerrate mehr als auszugleichen.

In den Schlagzeilen

Diaschauen zum Thema

Dossiers zum Thema

Diesen Meilenstein haben nun Hartmut Neven und sein Team von Google Quantum AI erreicht. Basis ihrer Tests bildete der neu entwickelten Quantenchip „Willow“, der Quantenprozessoren mit 72 und 105 supraleitenden Quantenpunkten als Qubits umfasst. Diese wurden zu logischen Qubits mit 17, 49 oder 101 physikalischen Qubits zusammengefasst. Dabei bestand die 101-Qubit-Einheit beispielsweise aus 49 Daten-Qubits, 48 Mess-Qubits und vier zusätzlichen Kontroll-Qubits, wie das Team erklärt.

Für ihre Fehlerkorrektur-Tests ließen die Forschenden ihre logischen Qubits rund eine Million Rechenzyklen lang laufen und ermittelten jeweils, wie hoch die Fehlerrate war. Eine optimierte Auslese-Technik erlaubte es zudem, die Daten nahezu in Echtzeit auszulesen.

Halbierte Fehlerrate, verlängerte Lebensdauer

Das Ergebnis ist eine Fehlerkorrektur, die mit zunehmender Größe der logischen Qubits exponentiell sinkt. „Jedesmal, wenn sich die Distanzen des Oberflächencodes um zwei erhöhen, reduziert sich der logische Fehler pro Zyklus um mehr als die Hälfte“, berichten Neven und seine Kollegen. „Diese historische Errungenschaft wird in unserem Fachgebiet als ‚unter der Schwelle‘ bezeichnet – es verringert die Fehler, während man die Zahl der Qubits erhöht.“

Für den 72-Qubit-Prozessor sank die Fehlerrate bis unter ein Millionstel. Beim 101-Qubit-Prozessor mit den größten logischen Qubits lag die Fehlerrate bei einem Tausendstel. Der verbesserte digitale Coprozessor erlaubte es zudem, die Fehler und Fehlerraten nahezu in Echtzeit auszulesen. „Das ist wichtig, weil einige logische Operationen nicht-deterministisch sind – sie hängen von logischen Resultatmessungen ab, die unmittelbar interpretiert werden müssen“, erklären Neven und seine Kollegen.

Parallel dazu verdoppelte sich die Lebensdauer der logischen Qubits auf 291 Mikrosekunden – weit über das von einzelnen Qubits erreichbare Maß hinaus, wie die Forscher berichten. Dadurch verlängert sich die Zeit, in der man Rechenoperationen durchführen kann. Im Test absolvierte der Willow-Quantenchip die Testaufgabe, die sogenannte Random Circuit Benchmark (RCS) in weniger als fünf Minuten. Die leistungsstärksten Supercomputer hätten dafür nach Google-Aussagen 1025 Jahre benötigt.

Das steckt im neuen Quanten-Chip Willow.© Google Quantum AI

Erste Fehlerkorrektur jenseits des Break-Even-Punkts

Nach Ansicht des Forschungsteams eröffnet ihre Technologie damit wichtige Voraussetzungen für die Weiterentwicklung von Quantencomputern. „Unsere Resultate demonstrieren Systeme, die bei Skalierung die Anforderungen von großskaligen, fehlertoleranten Quantenalgorithmen erfüllen könnten“, schreiben Neven und sein Team. Eine weitere Voraussetzung sei auch die Tatsache, dass sie ihre Experimente über mehrere Stunden und mit bis zu einer Million Zyklen hinweg durchführen konnten, ohne dass die Leistung stark abnahm.

„Diese Arbeit von Google erreicht sehr überzeugend erstmals effektive Quantenfehlerkorrektur jenseits des Break-Even-Punktes“, kommentiert auch Frank Wilhelm-Mauch, Leiter des Instituts für Quantencomputer-Analytik am Forschungszentrum Jülich. „Es wurde theoretisch erwartet, dass dies möglich ist. Bisher wurde es aber noch nicht experimentell erreicht.“ Die Experimente mit dem Quantenprozessor von Google liefern nun diesen experimentellen Beweis.

Wichtiger Schritt, aber weitere müssen folgen

Allerdings räumen die Wissenschaftler auch ein, dass es bis zu einem großen, breit einsetzbaren Quantenrechner noch einiges zu verbessern gibt. „Zwischen den aktuellen Fehlerraten und den Anforderungen für das praktische Quantencomputing liegen noch immer einige Größenordnungen“, erklären sie. Konkret bedeutet dies: Um ausreichend niedrige Fehlerquoten auch bei größeren Quantencomputern zu erreichen, müssten die logischen Qubits nach derzeitigem Stand der Fehlerkorrektur mindestens 1.457 physikalische Qubits umfassen.

Ähnlich sieht dies der nicht an der Studie beteiligte Physiker Stefan Filipp von der Technischen Universität München: „Die Arbeit zeigt in bemerkenswerter Weise auf, wie schnell die Technologie in Richtung fehlertolerante Quantencomputer voranschreitet“, erklärt er. „Wie jedoch auch das Google-Team in ihrem Artikel schreibt, gibt es noch einige Herausforderungen zu meistern, um die ersten Algorithmen ausführen zu können. Nicht nur muss die Qualität und die Anzahl an Qubits noch signifikant erhöht werden, es müssen auch die Echtzeit-Dekoder noch signifikant verbessert werden.“ (Nature, 2024; doi: 10.1038/s41586-024-08449-y)

Quelle: Nature, Google Quantum AI, Science Media Center

Keine Meldungen mehr verpassen – mit unserem wöchentlichen Newsletter.
Teilen:

Bücher zum Thema

Skurrile Quantenwelt - von Silvia Arroyo Camejo

Einsteins Spuk - Teleportation und weitere Mysterien der Quantenphysik von Anton Zeilinger

Top-Clicks der Woche