zum Inhalt springen

Im Gleichgewicht: Quantencomputer brauchen die richtige Mischung aus Ordnung und Unordnung

Studie zeigt, dass die Unordnung in Quantencomputerchips im Hardware-Design-Prozess mit einberechnet werden muss, damit die Technik in Zukunft funktionieren kann / Veröffentlichung in „Nature Communications“

Eine im Rahmen des Exzellenzclusters Materie und Licht für Quanteninformation (ML4Q) durchgeführte Forschungsarbeit hat modernste Gerätestrukturen von Quantencomputern analysiert und gezeigt, dass einige von ihnen gefährlich nahe an der Schwelle zum chaotischen Zusammenbruch arbeiten. Die Herausforderung besteht darin, den schmalen Grat zwischen zu hoher, aber auch zu geringer Unordnung zu finden, um den Betrieb der Geräte zu gewährleisten. Die Studie „Transmon platform for quantum computing challenged by chaotic fluctuations“ wurde heute in Nature Communications veröffentlicht.

Im Wettlauf um eine mögliche Schlüsseltechnologie der Zukunft investieren Tech-Giganten wie IBM und Google enorme Ressourcen in die Entwicklung von Quantencomputer-Hardware. Die derzeitigen Plattformen sind jedoch noch zu fehleranfällig für den praktischen Einsatz. Es gibt noch zahlreiche Herausforderungen, darunter die Beherrschung der Unzulänglichkeiten der Geräte („Unordnung“).

Es ist eine alte Stabilisierungsmaßnahme: Wenn große Gruppen Brücken überqueren, müssen sie vermeiden, im Gleichschritt zu marschieren, um die Bildung von Resonanzen zu verhindern, die die Konstruktion destabilisieren. Auch der supraleitende Transmon-Qubit-Prozessor – die zur Zeit technologisch fortgeschrittene Plattform für Quantencomputer, die von IBM, Google und anderen Konsortien bevorzugt wird – macht sich das gleiche Prinzip zunutze: Absichtlich eingeführte Unordnung blockiert die Bildung von chaotischen Resonanzfluktuationen und wird so zu einem wesentlichen Bestandteil der Produktion von Multi-Qubit-Prozessoren.

Um diesen scheinbar paradoxen Punkt zu verstehen, sollte man sich ein Transmon-Qubit als eine Art Pendel vorstellen. Qubits, die miteinander verbunden sind, um eine Rechenstruktur zu bilden, definieren ein System gekoppelter Pendel – ein System, das wie klassische Pendel leicht zu unkontrollierbar großen Schwingungen mit katastrophalen Folgen angeregt werden kann. In der Quantenwelt führen solche unkontrollierbaren Schwingungen zur Zerstörung der Quanteninformation; der Computer wird unbrauchbar. Absichtlich eingeführte lokale „Verstimmungen“ einzelner Pendel halten solche Phänomene in Schach.

„Der Transmon-Chip toleriert nicht nur, sondern benötigt sogar effektiv zufällige Qubit-zu-Qubit-Unvollkommenheiten“, erklärt Christoph Berke, Doktorand in der Gruppe von Simon Trebst an der Universität zu Köln und Erstautor der Arbeit. „In unserer Studie gehen wir der Frage nach, wie zuverlässig das Prinzip ‚Stabilität durch Zufall‘ in der Praxis ist. Durch Anwendung modernster Diagnostik der Theorie ungeordneter Systeme konnten wir feststellen, dass zumindest einige der industriell verfolgten Systemarchitekturen gefährlich nahe an der Instabilität sind.“

Aus der Sicht der fundamentalen Quantenphysik ist ein Transmon-Prozessor ein Vielteilchen-Quantensystem mit quantisierten Energieniveaus. Mit modernen numerischen Werkzeugen lassen sich diese diskreten Niveaus in Abhängigkeit von den relevanten Systemparametern berechnen, so dass sich Muster ergeben, die oberflächlich betrachtet einem Gewirr von gekochten Spaghetti ähneln. Eine sorgfältige Analyse solcher Strukturen für realistisch modellierte Google- und IBM-Chips war eines von mehreren Diagnosewerkzeugen, die in der Forschungsarbeit angewandt wurden, um ein Stabilitätsdiagramm für Transmon-Quantencomputer zu erstellen.

„Als wir die Google- mit den IBM-Chips verglichen, stellten wir fest, dass im letzteren Fall die Qubit-Zustände so weit gekoppelt sein könnten, dass kontrollierte Rechenoperationen beeinträchtigt werden können“, sagt Simon Trebst, Leiter der Gruppe Computational Condensed Matter Physics an der Universität zu Köln. Um kontrollierte Rechenoperationen zu gewährleisten, muss man also ein Gleichgewicht zwischen der Stabilisierung der Qubit-Integrität und der Ermöglichung der Inter-Qubit-Kopplung finden. Wie bei der Zubereitung von Nudeln geht es darum, den Quantencomputerprozessor perfekt vorzubereiten, die Energiezustände „al dente“ zu halten und zu vermeiden, dass sie sich durch Überkochen verheddern.

Die Studie wurde im Rahmen des Exzellenzclusters ML4Q in den Arbeitsgruppen von Professor Dr. Simon Trebst und Professor Dr. Alexander Altland an der Universität zu Köln und der Gruppe von Professor Dr. David DiVincenzo an der RWTH Aachen und dem Forschungszentrum Jülich durchgeführt. „Dieses Projekt ist in dieser Form einzigartig“, sagt Alexander Altland vom Institut für Theoretische Physik in Köln. „Unser komplementäres Wissen über Transmon-Hardware, numerische Simulation komplexer Vielteilchensysteme und Quantenchaos war die perfekte Voraussetzung, um zu verstehen, wie Quanteninformation mit Unordnung optimal geschützt werden kann. Es zeigt auch, wie die für kleine Referenzsysteme gewonnenen Erkenntnisse auf anwendungsrelevante Designskalen übertragen werden können.“

Das Fazit zieht David DiVincenzo, Gründungsdirektor des JARA-Instituts für Quanteninformation an der RWTH Aachen: „Unsere Studie zeigt, wie wichtig es für Hardware-Entwickler ist, die Modellierung von Bauelementen mit modernster Quantenzufallsmethodik zu kombinieren und die ‚Chaos-Diagnose‘ als Routinebestandteil in das Design von Qubit-Prozessoren auf der supraleitenden Plattform zu integrieren.“
 

Inhaltlicher Kontakt:
Christoph Berke
Institut für Theoretische Physik der Universität zu Köln
berkeSpamProtectionthp.uni-koeln.de

Presse und Kommunikation:
Dr. Marian Barsoum
ML4Q Public Outreach Manager
+49 178 304 1884
marian.barsoumSpamProtectionuni-koeln.de

Veröffentlichung:

https://www.nature.com/articles/s41467-022-29940-y
DOI: 10.1038/s41467-022-29940-y