Neuer Spezialchip für Quantencomputer

Google will Quantencomputing kräftigen Schub geben

Quantencomputer sind die Zukunft. Für den Einsatz in der Praxis sidn sie bislang aber kaum geeignet, weil sie eine zu hohe Fehlerquote haben. Ein neuer Spezialchip von Google soll jetzt die Wende bringen.

Quantencomputer können mathematische Probleme sehr viel schneller lösen als bisherige Computer (Symbolbild).

© Imago/Zuma Wire

Quantencomputer können mathematische Probleme sehr viel schneller lösen als bisherige Computer (Symbolbild).

Von Markus Brauer/dpa

Google war sich im Jahr 2019 sicher: Dem US-Tech-Giganten war ein Durchbruch bei der Entwicklung von Quantencomputern gelungen. Mit Hilfe seines Prozessors Sycamore sei es möglich, eine Kalkulation in 200 Sekunden zu erledigen, für die der aktuell schnellste Supercomputer 10 000 Jahre benötigen würde, schrieben Forscher damals im Wissenschaftsjournal „Nature“. Damit sei die Demonstration der „Quantenüberlegenheit“ erstmals gelungen.

Excited about what quantum computing means for the future - it gives us another way to speak the language of the universe and better understand the world, not just in 1s and 0s but in all of its states: beautiful, complex, and with limitless possibility. https://t.co/P6YX4KguMX — Sundar Pichai (@sundarpichai) October 23, 2019

Spezialchip „Willow“ eröffnet neue Quanten-Welten

Nun ist dem Hightech-Unternehmen nach eigenen Angaben ein weiterer entscheidender Schritt zur Überwindung einer der größten Herausforderungen im Quantencomputing gelungen.

Mit dem neuen Spezialchip „Willow“ und einer neuen Anwendungsmethode habe man den Weg für die Entwicklung praktisch nutzbarer Quantencomputer geebnet, sagte der deutsche Informatiker Hartmut Neven, Gründer und Leiter des Quantum Artificial Intelligence Laboratory von Google.

Quantum computers offer many promising applications dependent on greatly improved performance. Read how we’ve combined quantum error correction w/ our latest superconducting processor, Willow, exponentially reducing error rates w/ increasing qubit scale →https://t.co/flyuINreWypic.twitter.com/AFcv8bPX5c — Google AI (@GoogleAI) December 9, 2024

Fehlerraten unter dem Schwellenwert

In der Wissenschaftszeitschrift „Nature“ berichten Neven und sein Team, dass zum ersten Mal eine Quantenfehlerkorrektur mit Fehlerraten unter einem relevanten Schwellenwert erreicht wurde. Die Fehlerkorrektur ist entscheidend für die Entwicklung von skalierbaren und anwendbaren Quantencomputern.

Nonlocality-Assisted Enhancement of Error-Free Communication in Noisy Classical Channels. https://t.co/ULxZ7diZNG — Quantum Physics (@QuantumPapers) December 9, 2024

Quantencomputer können mathematische Probleme sehr viel schneller lösen als bisherige Computer, beispielsweise beim Verschlüsseln von Daten, in der Materialforschung oder beim maschinellen Lernen für Anwendungen Künstlicher Intelligenz.

Die bereits entwickelten Systeme sind jedoch zu klein und machen zu viele Fehler, um einen Mehrwert zu liefern. Problematisch ist auch, dass bislang mit zusätzlichen Recheneinheiten („Qubits“) die Fehlerquote ansteigt.

Bündelung der Recheneinheiten

Um dieses Problem in den Griff zu bekommen, fasste das Google-Team mehrere fehleranfällige physikalische Qubits zu einem weniger fehleranfälligen logischen Qubit zusammen. Für die Demonstration dieses Zusammenhangs verwendeten die Forscher den neu entwickelten Quantenprozessor „Willow“.

Neven und sein Team betonen, mit der verwendeten Methode und dem neuen Chip seien skalierbare, fehlerkorrigierte Quantencomputer möglich. Allerdings merken die Forschenden auch an, dass die erzielte Fehlerrate weiterhin nicht für einen anwendbaren Quantencomputer ausreiche.

Das Team rechnet damit, dass sie für zufriedenstellende Raten deutlich mehr physikalische Qubits bräuchten. Der Einsatz von mehr Qubits mit der verwendeten Methode werde außerdem zu einer längeren Rechenzeit führen.

„Arbeit erfüllt hohe Standards“

Markus Müller, Professor für theoretische Quantentechnologie an der Rheinisch-Westfälischen Technischen Hochschule Aachen (RWTH), erklärt, dem Google-Team sei es zum ersten Mal experimentell gelungen, Quantenfehlerkorrektur deutlich unterhalb der kritischen Fehlerschwellenwerte und mit einer im Prinzip skalierbaren Methode zu zeigen. „Die Arbeit erfüllt methodisch die im Forschungsfeld üblichen hohen Standards.“

Michael Hartmann, Professor für Theoretische Physik an der Friedrich-Alexander-Universität Erlangen-Nürnberg, lobt ebenfalls die wissenschaftliche Qualität der Arbeit. „Der gegebene Ausblick ist nicht unbegründet.“ Zu beachten sei jedoch, dass ein fehlertolerantes Rechnen von den Autoren an die Bedingung geknüpft worden sei, dass es gelinge, die Ergebnisse zu deutlich größeren Qubit-Zahlen zu skalieren.

„Noch ein weiter Weg“

„Mit der derzeitigen Qualität von Qubits wird man 100.000 bis eine Million Qubits benötigen, um große, fehlertolerante Rechnungen durchführen zu können, die für klassische Supercomputer jenseits des Möglichen sind“, schreibt Michael Hartmann im Science Media Center (SMC). In der vorliegenden Arbeit würden Ergebnisse eines Chips mit 105 Qubits präsentiert. „Damit wird ersichtlich, wie weit der Weg noch ist.“

Zum Artikel

Erstellt:
9. Dezember 2024, 19:02 Uhr
Aktualisiert:
9. Dezember 2024, 21:15 Uhr

Artikel empfehlen

Artikel Aktionen