„Das ist ja wahnsinnig kompliziert! Wer soll so etwas verstehen?“ Mein Vater war am Abend des zweiten Weihnachtstages völlig fassungslos, nachdem er zufällig einen Blick in zwei Bücher geworfen hatte, die ich zu Weihnachten von einem Schulfreund geschenkt bekommen hatte. Es handelte sich um zwei Lehrbücher zur Einführung in die Quantenmechanik. Geschrieben hatte die Bücher der vor einem Jahr verstorbene Vater des Freundes, Jochen Pade, der in meiner Heimatstadt Physikprofessor war. Am Anfang meines Studiums hatte er mir die erste Variante seines Vorlesungsskriptes gegeben, aus denen nun dieses Buch entstanden war. Und mein Schulfreund hatte Recht mit seiner Vermutung, dass ich mich über dieses Geschenk außerordentlich freuen würde.
Das in den Büchern behandelte Programm ist der Standard-Inhalt dessen, was man im Physikstudium lernt: Von der eindimensionalen Lösung der Schrödingergleichung bis zu den Grundlagen des Quantencomputers. Meinem Vater kam das alles, insbesondere auch angesichts der für Uneingeweihte weitgehend unverständlichen „erklärenden“ Texte zwischen den Gleichungen, aber völlig abwegig vor. Dass im Grunde jeder Physiker all das beherrschen sollte, konnte er kaum glauben.
Nun ist es natürlich so, dass die Physik generell im Vergleich zu anderen schwierigen Fächern (etwa der Philosophie) den großen Vorteil hat, dass sie durch ihren alltagsfremden Formalismus automatisch sehr viel Eindruck macht. Allerdings hat mein Vater mit seiner Beobachtung Recht: Der Quantentheorie haftet wohl mehr als jeder anderen physikalischen Theorie die Aura des Fremdartigen, Unverständlichen und Esoterischen an. Unser Bildungssystem tut sich nach wie vor schwer mit der Vermittlung dieser immerhin schon hundert Jahre alten Theorie. Die Medien tun das übrigens auch. Es ist sehr viel einfacher, schöne und allgemein zugängliche Artikel über das Universum zu schreiben, als über neue Entwicklungen im Bereich der Quantentechnologie.
Das ist insbesondere vor dem Hintergrund interessant, dass die Quantentheorie die Grundlage eines großen Teils unserer heutigen technologisierten Welt liefert. Die Physiker Leon Lederman und Richard Carrigan, ersterer Physik-Nobelpreisträger von 1988, machten sich Mitte der 80er Jahre daran, den Anteil des amerikanischen Bruttosozialproduktes zu berechnen, der auf Entwicklungen der Quantentheorie beruht. Dabei berücksichtigten sie Transistoren, Laser, Computer, Fernseher, Atomenergie und DNA (zu deren Erforschung braucht man Quantenchemie und Röntgenkristallografie) und kamen auf knapp ein Viertel des BSP für 1983. Für das Ende des Jahrhunderts sagten sie eine Verdoppelung voraus. Mittlerweile sollte dieser Wert bei Weitem überschritten sein. Ohne Quantentheorie würde unsere Wirtschaft kollabieren und unser Leben würde vollkommen anders aussehen.
Wie schwierig das Verständnis der Quantentheorie in der Öffentlichkeit trotzdem ist, kann man derzeit bei der Diskussion des neuen Quantenchips von Google, genannt Willow, sehen. Der zeichnet sich vor allem dadurch aus, dass er sehr viel besser als andere Quantencomputerchips Fehler korrigieren kann. Das ist ein wichtiger Fortschritt, denn genau diese Fehler sind eine zentrale Hürde in der Entwicklung praktisch nutzbarer Quantencomputer. Sie entstehen dadurch, dass die Quantenzustände durch Wechselwirkung mit der Umgebung gestört werden, so dass sie ihre Quanteneigenschaften verlieren, die die besondere Leistungsfähigkeit der Quantenrechner ausmachen.
Die zentrale Idee bei Quantencomputer ist nämlich, die Tatsache zu nutzen, dass Quantensysteme sich in einer Überlagerung verschiedener Zustände befinden können – so lang, bis sie durch eine Messung in einen definitiven Zustand gezwungen werden. Man kennt das Prinzip von Schrödingers Katze, die dem Gedankenexperiment zufolge so lang tot und lebendig zugleich ist, bis jemand die Box aufmacht und nachschaut, wie es dem Tier tatsächlich geht. Dadurch dass die „Qubits“, die kleinsten Informationseinheiten eines Quantencomputers, sich anders als ihre klassischen Äquivalente nicht immer eindeutig im Zustand 0 oder 1 sondern in einem Überlagerungszustand beider befinden können, kann man mit ihnen (sehr vereinfacht gesagt) auf einen deutlich größeren mathematischen Raum für Berechnungen zugreifen. Quantencomputer können so klassische Supercomputer in den Schatten stellen. Und Googles Willow hat auf diese Weise in unter fünf Minuten eine Berechnung vollbracht, für die – Google zufolge – ein klassischer Supercomputer 10 hoch 25 (10 Quadrillionen: eine 1 mit 25 Nullen) Jahre benötigt hätte.
Hier fangen nun aber bereits die öffentlichen Missverständnisse an. Denn fairerweise muss man sagen, dass die Berechnung gerade so gewählt war, dass sie klassische Computer an ihre Grenzen bringt, während sie die Stärke von Quantencomputern besonders herausstellt. Das Problem betont also die Leistungsfähigkeit der Quantenrechner, praktischen Nutzen hat diese Berechnung aber nicht. Was man mit dem Vergleichswert von 10 Quadrillionen Jahren anfangen soll, bleibt daher zweifelhaft.
Die noch viel größere Konfusion wurde aber vom Chef von Google Quantum AI, Hartmut Neven, verursacht, als dieser in einem Blog-Post behauptete, die Rechnung habe die Existenz von Paralleluniversen nahegelegt („It lends credence to the notion that quantum computation occurs in many parallel universes, in line with the idea that we live in a multiverse, a prediction first made by David Deutsch.“ – mehr zu diesem Konzept von Multiversen findet sich in meinem Essay in Kursbuch 217).
Dass die Quantentheorie etwas mit Paralleluniversen zu tun hat, ist eine der verschiedenen Interpretationen ihres Formalismus. Es gibt noch andere Interpretationen, die ohne Paralleluniversen auskommen, zum Beispiel die Kopenhagener Deutung, wie sie etwa von Nils Bohr und Werner Heisenberg vertreten wurde. All diese Interpretationen sollen die Frage beantworten, wie es zu verstehen ist, dass ein Quantenzustand, in dem sich das System in mehreren Zuständen zugleich befindet, bei einer Messung schließlich doch einen eindeutigen Zustand des Systems liefert – man nennt dieses Phänomen, dass eine Messung ein Quantensystem in einen eindeutigen Zustand zwingt, den „Kollaps der Wellenfunktion“. Wie der funktioniert, ist bislang vollständig unklar.
Die von Neven zitierte Deutung, die ursprünglich auf den Physiker Hugh Everett zurückgeht, behauptet nun, dass sich das Universum bei jeder Messung in viele verschiedene Universen aufspaltet. Das gemessene System befindet sich demnach auch nach der Messung immer noch in vielen verschiedenen Zuständen gleichzeitig – die erzeugen aber eine Verzweigung der Realität in verschiedene Welten. Gewonnen ist dadurch, dass die Wellenfunktion nicht kollabiert, und man dadurch ein unverständliches Element der Quantentheorie losgeworden ist – allerdings zum Preis unendlich vieler Welten. Wenn man an diese Deutung glaubt, dann würde die Schnelligkeit eines Quantenrechners darauf zurückzuführen sein, dass er in vielen verschiedenen Universen gleichzeitig rechnet. Wenn man diese Interpretation für zu gewagt hält, dann kann man die Schnelligkeit auch auf die überlagerten Zustände in unserer einen Welt schieben und etwa die Kopenhagener Deutung vertreten. So oder so: Googles Willow-Chip beweist weder das eine noch das andere.
Zugutehalten muss man Neven aber, dass er durch seine (vielzitierte) Deutung der Google-Resultate dazu beigetragen hat, dass sich plötzlich wieder Menschen für die Quantentheorie und ihre Deutung interessieren. Und auch wenn es noch viele Jahre dauern wird, bis Quantencomputer in unserem Alltag relevant werden – es gibt genügend andere vielgenutzte Technologien, die dazu motivieren könnten, sich ein Grundverständnis der Physik des Mikrokosmos zuzulegen.
Sibylle Anderl, Montagsblock /306
06. Januar 2025