Wichtiger Fortschritt: Bisher steht die Fehleranfälligkeit von Quantencomputern ihrer Nutzung in größerem Maßstab entgegen. Jetzt haben Tests mit dem Google-Quantenrechner „Sycamore“ erstmals in der Praxis demonstriert, dass solche Korrekturprotokolle funktionieren. Sie senkten die Fehlerquote des Systems um das 100-Fache, wie das Team im Fachmagazin „Nature“ berichtet. Noch wichtiger jedoch: Die Fehlerkorrektur wirkt bei Skalierung exponentiell, erst dies macht größere Quantenrechner machbar.
Quantencomputer gelten als Rechner der Zukunft, denn sie sind dank quantenphysikalischer Phänomene wie der Verschränkung und Überlagerung viel schneller als normale Rechner. Der Google-Rechner „Sycamore“ und der chinesische Quantensimulator „Jiuzhang“ sollen diese Quanten-Überlegenheit bereits bewiesen haben. Trotzdem ist die Technologie noch nicht ausgereift: Die Quantenrechner machen noch zu viele Fehler.
Warum es beim Quantenrechnen so viele Fehler gibt
Das Problem: Die Verschränkung und Überlagerungszustände der Quantenbits sind extrem anfällig, schon kleinste Störeinflüsse beenden ihre Kohärenz und führen so zu Fehlern. Zuverlässig und in größerem Maßstab einsetzbar sind Quantencomputer daher erst dann, wenn es Korrekturmechanismen gibt, die diese Fehler effizient detektieren und beseitigen. Einige solcher Protokolle wurden zwar schon entwickelt, aber ihre praktische Erprobung auf komplexeren Quantenrechnern stand noch aus.
Diese Tests hat nun ein Team von Google AI mithilfe ihres Quantencomputers „Sycamore“ durchgeführt. Das System beruht auf 54 supraleitenden Qubits, die in einem zweidimensionalen Gitter angeordnet und miteinander verkoppelt sind. Das Prinzip der Fehlerkorrekturen beruht darauf, mehrere physikalische Qubits zu einem logischen Qubit zusammenzufassen, das letztlich die Rechnungen übernimmt. Der Vorteil: Dadurch kann das Rechnen auch bei einzelnen Ausfällen der physikalischen Einheiten weitergehen, gleichzeitig lassen sich einige Qubits zur Fehlerüberwachung nutzen.
Zwei Fehler-Protokolle im Test
Anders als bei einem normalen Rechner kann ein Quantensystem Fehler aber nicht durch einfaches Kopieren und Vergleichen von Daten finden, weil Quantenbits nicht kopierbar sind. Man muss daher eine Methode finden, um Fehler zu erkennen, ohne den Quantenzustand zu zerstören. Eine solche Fehlerüberwachung ist beispielsweise dadurch möglich, dass einzelne Qubits den Quantenzustand ihrer Nachbarn detektieren und so als „Messfühler“ dienen.
Das Google-Team hat nun zwei solcher Methoden mit ihrem „Sycamore“-System getestet. Das erste ist der Wiederholungscode. „Beim Repetition Code wechseln einzelne Qubits zwischen Messen und Datenverarbeitung in einer eindimensionalen Kette hin und her“, erklären sie. „Jedes Mess-Qubit kontrolliert dabei den Zustand seiner beiden Nachbarn.“ Pro Schritt wird dabei aber immer nur jeweils eine von zwei Fehlerarten erkennt – ein Bit- oder ein Phasenfehler.
Bei der zweiten Methode, dem Oberflächencode, sind Mess- und Daten-Qubits abwechselnd in einem zweidimensionalen Gitter angeordnet. Jeder Mess-Qubit kann dabei sowohl Bit- als auch Phasenfehler detektieren. Diese Methode gilt daher als geeigneter für größere Quantenrechner, ist aber schwieriger umzusetzen. In ihren Tests ließen die Forscher den Wiederholungscode in Ketten von bis zu 21-Qubits laufen, den Oberflächencode in kleinerem Maßstab mit sieben Qubits.
Korrektur funktioniert exponentiell
Das Ergebnis: „Beim Wiederholungscode werden logische Fehler um mehr als das Hundertfache verringert, wenn man die Zahl der Qubits von fünf auf 21 erhöht“, berichten die Wissenschaftler. Das spreche dafür, dass die Fehlerkorrektur mit zunehmender Qubits-Anzahl exponentiell ablaufe. Eine solche exponentielle Fehlerkorrektur ist wichtig, weil der Aufwand bei größeren Quantensystemen sonst unvertretbar groß wird – der Vorteil der Quantenrechner wäre dann schnell hinfällig.
„Dass die Rate der Fehlerkorrektur mit Anzahl der verwendeten Qubits exponentiell ansteigt, war theoretisch erwartet. Trotzdem ist es schön, zu sehen, dass sich diese theoretische Annahme bewahrheitet hat. Denn dieser exponentielle Anstieg ist für die Realisierung eines kompletten, funktionierenden Quantencomputers unabdingbar“, erklärt der nicht an der Studie beteiligte Quantenphysiker Tommaso Calarco vom Forschungszentrum Jülich.
„Ein kritischer Meilenstein“
Ebenfalls positiv: Auch beim Oberflächencode gelang die praktische Umsetzung und das System verhielt sich wie in den Modellen vorhergesagt. Die Korrektursysteme blieben zudem über mehr als 50 Zyklen stabil, wie das Forschungsteam berichtet. „Diese experimentellen Demonstrationen liefern nun das Fundament für die Entwicklung eines skalierbaren, fehlertoleranten Quantencomputers auf Basis supraleitender Qubits“, schreiben die Wissenschaftler.
Als wichtigen Durchbruch sehen dies auch Sven Ramelow und Helen Chrzanowski von der Humboldt-Universität Berlin: „Eine der unbestritten weltführenden Gruppen im Wettlauf, den ersten universellen Quantencomputer zu konstruieren, hat einen der besonders kritischen Meilensteine auf dem Weg dorthin genommen“, kommentieren die beiden nicht an dem Experiment beteiligten Physiker. „Obwohl es sich im Vergleich zur Vision eines echten, nützlichen Quantencomputers noch um ein sehr kleines Gerät handelt, zeigt es doch überzeugend, dass effektive und vor allem effiziente Fehlerkorrektur in einem Quantenprozessor auch in der Praxis möglich ist.“
Herausforderungen bleiben
Bis jedoch Quantencomputer auch in größerem Maßstab fehlerfrei rechnen können, ist noch einiges an Optimierung nötig, das räumt auch das Team von Google AI ein. „Es bleiben noch viele Herausforderungen auf dem Weg zur skalierbaren Fehlerkorrektur“, schreiben sie. Vor allem um den Oberflächencode einsetzen zu können, muss die Qubit-Kohärenz und -kontrolle noch weiter verbessert werden.
Sollte dies gelingen, könnten auch künftige, größere Quantencomputer wie das von IBM geplante 1.000-Qubit-System praktisch einsetzbar werden. (Nature, 2021; doi: 10.1038/s41586-021-03588-y)
Quelle: Nature, Science Media Center