Klein, unvollkommen und voller Potential
Quantencomputer versprechen im Vergleich zu konventionellen Rechnern eine enorme Leistungssteigerung. Doch bisher sind die Prozessoren noch in der Entwicklungsphase. Wie stabil sind die Plattformen führender Technologieunternehmen schon heute?
Von Marian Barsoum
Wir speichern Videos und Hunderte von Bildern in hoher Qualität auf unserem Smartphone, ohne uns Gedanken über Speicherplatz zu machen. Was aufgrund der Datenmengen vor einigen Jahren noch undenkbar war, wird heute mit immer komplexeren Computerprogrammen und wachsender Rechenleistung gemeistert. Doch irgendwann stoßen auch die besten Prozessoren an ihre physikalischen Grenzen. Dort, wo die Transistoren auf den Computerchips so klein werden wie Atome, kommen die Effekte der Quantenmechanik ins Spiel und stören die klassischen Prozessoren. Eine weitere Optimierung ist nicht mehr möglich. Eine Grenze ist erreicht.
Effekte der Quantenmechanik – Transistoren (An/Aus- Schalter für elektrische Ströme) sind in der Quantenwelt Störungen ausgesetzt. Man kann es sich so vorstellen: Bälle rollen auf einer Bahn von links nach rechts – Strom fließt. Wird eine Wand auf die Bahn gestellt, sodass die Bälle nicht vorbeikommen, fließt kein Strom mehr. Quantenmechanische Bälle können mit einer gewissen Wahrscheinlichkeit einfach durch die feste Wand hindurch rollen – der sogenannte Tunneleffekt. Dann fließt im Aus-Zustand immer noch Strom und der Unterschied zwischen »Aus« und »An« wird verwaschen.
Wie geht es also weiter mit den Computern der Zukunft? Daran forschen Wissenschaftler*innen des Exzellenzclusters »Materie und Licht für Quanteninformation « (ML4Q). Seit 2019 wird er im Rahmen der Exzellenzstrategie des Bundes und der Länder gefördert. Durch Quantencomputer erhoffen sich die beteiligten Forschungsgruppen nicht nur in den Bereichen Materialforschung, Pharmazeutik oder Künstliche Intelligenz Fortschritte. Quantenkommunikation ist auch abhörsicher verschlüsselbar und kann somit helfen, sichere Kommunikationsnetzwerke zu realisieren.
Aber wie überwindet man die Hürde der störenden quantenmechanischen Effekte, an der gewöhnliche Computerprozessoren scheitern? »Indem man genau diese Effekte dazu nutzt, ein grundlegend neues Konzept der Informationsverarbeitung zu entwerfen«, erklärt Christoph Berke, Wissenschaftler bei ML4Q und Doktorand in der Gruppe von Professor Dr. Simon Trebst am Institut für Theoretische Physik. »Der Trick für die Rechenleistungssteigerung beim Quanten-Bit – auch Qubit genannt – ist, dass es nicht nur wie bei klassischen Bits eine 0 oder eine 1, also an oder aus, repräsentieren kann«, so Berke. Stattdessen befindet es sich in einem Zustand, in dem es gleichzeitig mit einem gewissen Anteil eine 1 und mit einem gewissen Anteil eine 0 sein kann – man spricht von Superposition.
Aufgrund des Superpositionszustands kann das Qubit eine Vielzahl von Rechenoperationen gleichzeitig durchführen – und nicht nacheinander wie im Fall des klassischen Computers. Dies ermöglicht Rechenleistungen in Geschwindigkeiten, von denen Wissenschaft und Industrie bisher nur träumen.
Rechenleistungen – Wie viel ergibt 19 mal 23? Diese Aufgabe (das Multiplizieren von zwei Primzahlen) hat man – notfalls mit einem Taschenrechner – schnell gelöst. Komplizierter wird es, wenn wir die Aufgabe umdrehen und danach fragen, welche beiden Primzahlen miteinander multipliziert die Zahl 377 ergeben. Diese Primfaktorzerlegung ist auch für klassische Computer viel schwieriger als das Multiplizieren. Das ist relevant, weil gängige Verschlüsselungsverfahren und damit große Teile der Internetsicherheit darauf basieren, dass die Primfaktoren großer Zahlen von klassischen Computern quasi nicht berechnet werden können, während das Multiplizieren einfach bleibt. Zwar gibt es für eine solche Rechenaufgabe kein grundsätzliches Hindernis, ein Computer würde allerdings viele Jahre dafür brauchen – ein Quantencomputer mit 4099 Qubits aber nur 10 Sekunden. Das setzt allerdings perfekte (also stabile und fehlerfrei arbeitende) Qubits voraus. Davon sind heutige Plattformen noch weit entfernt.
Noch gibt es zwar kein System, das dauerhaft stabil funktioniert und, mehr noch, industriell produzierbar wäre. IBM, Google und andere Konsortien sehen derzeit jedoch die sogenannte Transmon-Hardware als vielversprechend an. Im Rahmen von ML4Q haben sich mehrere Arbeitsgruppen zusammengetan, um Transmon- Hardware genauer zu untersuchen. Neben der Gruppe von Simon Trebst sind auch die Kölner Arbeitsgruppe von Professor Dr. Alexander Altland und eine Gruppe um Professor Dr. David DiVincenzo an der RWTH Aachen und dem Forschungszentrum Jülich beteiligt.
Das Prinzip »Stabilität durch Zufall«
Trotz bester Reinräume und Produktionsprozesse – keine zwei Qubits gleichen einander, es gibt immer kleinste zufällige Abweichungen. Doch das ist kein Manko für den Bau eines Quantencomputers. Ganz im Gegenteil vermuten die Forschenden sogar, dass es eine notwendige Voraussetzung ist, denn wenn Qubits nicht hinreichend voneinander abweichen, werden sie instabil. Durch Anwendung modernster Diagnostik der Theorie ungeordneter Systeme fanden die Wissenschaftler*innen heraus, dass zumindest einige der industriell verfolgten Systemarchitekturen gefährlich nah an der Instabilität sind.
Diese Systeme mögen keine Unordnung, um stabil arbeiten zu können – zu ordentlich darf es aber wiederum auch nicht sein. Sie benötigen eine fein austarierte Balance zwischen beiden Zuständen. Mit anderen Worten: Schon bei der Produktion muss eine gewisse Unordnung eingebaut werden, um den Computer fehlertoleranter und dadurch stabiler zu machen. »Der Transmon- Chip toleriert nicht nur, sondern benötigt sogar zufällige Qubit-zu-Qubit-Unvollkommenheiten «, erklärt Berke. »In unserer Studie wollten wir herausfinden, wie zuverlässig das Prinzip ›Stabilität durch Zufall‹ in der Praxis ist.« Die Frage lautet also: Wie lässt sich Quanteninformation mit Unordnung optimal schützen?
Um diesen scheinbar paradoxen Punkt zu verstehen, muss man sich ein Transmon- Qubit wie eine Art Pendel vorstellen. Zu einem Prozessor vernetzte Qubits bilden ein System gekoppelter Pendel. Würden die Pendel exakt gleich schwingen, käme es zu großen Resonanzen. Das Prinzip kennt man, wenn große Personengruppen Brücken überqueren. Marschieren sie im Gleichschritt, werden die Resonanzen zu groß: die Schwingung der Brücke schaukelt sich immer mehr hoch, bis die ganze Konstruktion instabil wird. In der Quantenwelt würde dies in den Verlust von Quanteninformation münden; der Rechner wird unbrauchbar. Kontrolliert eingeführte lokale »Verstimmungen« einzelner Pendel halten dergleichen Phänomene in Schach.
Das richtige Maß an Chaos finden
»Als wir die Google- mit den IBM-Chips verglichen, stellten wir fest, dass im letzteren Fall die Qubit-Zustände so weit gekoppelt sein könnten, dass kontrollierte Rechenoperationen beeinträchtigt werden«, sagt Professor Dr. Simon Trebst, Leiter der Gruppe Computational Condensed Matter Physics an der Universität. »Unsere Studie zeigt, wie wichtig es für Hardware-Entwickler ist, die Modellierung von Bauelementen mit modernster Quantenzufallsmethodik zu kombinieren und die ›Chaos-Diagnose‹ als Routinebestandteil in das Design von Qubit-Prozessoren auf Transmon-Plattformen zu integrieren«, fügt Professor Dr. Alexander Altland vom Institut für Theoretische Physik hinzu.
Das habe auch Auswirkungen auf die Größe von Quantenplattformen: Für kleine Referenzsysteme gewonnene Erkenntnisse können nicht ohne weiteres auf Designskalen übertragen werden, die für die industrielle Anwendung nötig wären. Berke führt aus: »IBM hat zum Beispiel eine Strategie vorgeschlagen, um Systeme aus drei Qubits zu optimieren. Nimmt man aber weitere Qubits hinzu, wird das System sofort chaotisch – ein Effekt, der nur aus unserer ›Vielteilchen-Chaos-Perspektive‹ erkennbar ist.«
Das Hochskalieren stellt somit die größte Herausforderung im Chip-Design dar. Je mehr Speicherelemente bei der Entwicklung auf den Chips untergebracht werden, umso schwieriger wird es, die einzelnen Qubits gezielt anzusteuern.
Seitdem die Kölner und Jülicher Theoretiker*innen ihre Analysen gestartet haben, sind weitere Generationen der IBM-Chips auf den Markt gekommen – mit inzwischen 127 Qubits. IBM plant dieses Jahr sogar schon die Vorstellung eines 433-Qubit-Prozessors.
Welchen Weg die weitere Entwicklung von Quantenprozessoren in Zukunft einschlagen wird, ist dabei noch völlig unklar. Denn mehr Qubits bringen nicht automatisch mehr Rechenleistung. »Es gibt einige neuere Modelle einer eigentlich älteren Prozessorgeneration mit nur 27 Qubits, die ein doppelt so großes ›Quantum Volume‹ – ein Maß für die Rechenleistung – haben wie der 127-Qubits-Prozessor«, resümiert Berke.
Auch hat IBM bislang noch keinen Quantenchip entwickelt, der besser abgeschnitten hätte als ein klassischer Supercomputer. Bei der Entwicklung von Quantenprozessoren gilt also nicht unbedingt »größer gleich besser«. Die Lösung könnte auch »kleiner und weniger fehleranfällig« sein. Die Teams bei ML4Q erwarten die weiteren Entwicklungen aus der Industrie gespannt – und forschen selbst in alle möglichen Richtungen.
WETTLAUF UM DIE BESTE TECHNOLOGIE
Am Exzellenzcluster ML4Q werden auch andere Hardware-Plattformen erforscht, darunter die Elektronenspin- Qubits und die topologischen Qubits. Die Herstellung der Elektronenspin- Qubits beruht auf der Halbleitertechnolgie, die schon die heutige Computerindustrie verwendet. Damit ist eine leichtere Integration in bereits vorhandene Computerteile möglich. Die Realisierung der topologischen Qubits steht jedoch vor großen Herausforderungen, weshalb diese Plattform den anderen Ansätzen hinterherhinkt. Schaffen es jedoch die Teams aus der Experimentalphysik in Köln, Aachen und Jülich, topologische Qubits zu realisieren, so würden sie die anderen Qubitformen in ihrer Störanfälligkeit überholen und eine der robustesten Plattformen für Quantencomputer anbieten. Noch ist das Rennen nicht entschieden und die Grundlagenforschung nicht ausgeschöpft.