Googles neuer Quantencomputer – Erleben wir gerade den Sputnik-Moment in der Informationstechnologie? BLOG: [Links nur für registrierte Nutzer] Grenzgänge in den heutigen Wissenschaften
Ein Begriff, der den meisten Menschen so unheimlich-bizarr wie aufregend-futuristisch erscheint, drängt in die Sphäre der öffentlichen Aufmerksamkeit. Er kombiniert die technologische Allmacht des digitalen Rechnens mit der ehrfurchteinflössenden Komplexität und Abstraktheit der bedeutendsten physikalischen Theorie des 20. Jahrhunderts. Die Sprache ist vom Quantencomputer. Und er verspricht eine neue technologische Revolution, die das 21. Jahrhundert ähnlich stark prägen könnte wie die Entwicklung digitaler Schaltkreise das 20. Jahrhundert formte.
Lange waren Quantencomputer Stoff für Science-Fiction, ihre Realisierung lag weit in der Zukunft. Doch bekannterweise nähert sich uns diese immer schneller. Nun hat Google durchsickern lassen, dass seinen Ingenieuren die Konstruktion eines Quantencomputers gelungen sei, der zum ersten Mal ein Problem lösen kann, an dem sich jeder herkömmliche Computer die Zähne ausbeisst. Konkret habe der Computer-Chip
Sycamore für eine spezielle Rechenaufgabe, für die der weltbeste Supercomputer 10 000 Jahre benötigt, gerade einmal 200 Sekunden gebraucht! Google selbst hat die Eigenschaft eines Quantencomputers, jedem existierenden klassischen Computer bei der Bewältigung von bestimmten Aufgaben überlegen zu sein, bereits vor Jahren als
quantum supremacy getauft. Nun scheint der Moment einer solchen „Quantenüberlegenheit“ gekommen zu sein. Wir könnten also gerade Zeuge eines Sputnik-Moments in der Informationstechnologie werden. Auch wenn es sich hier eher um einen symbolischen Meilenstein handelt, da das von Sycamore gelöste Problem doch von sehr akademischer Natur ist, so könnte die Leistung von Google die Quanteninformationstechnologie ähnlich stimulieren wie der historische Sputnik-Moment der 1950er die Raumfahrt.
Doch was ist eigentlich ein Quantencomputer? Obwohl auch herkömmliche Computer immer kleinere Bauteile verwenden, bei denen Quanteneffekte eine wichtige Rolle spielen, so basiert ihre Funktionsweise doch prinzipiell vollständig auf der klassischen Physik. Die allen heutigen Computern zugrunde liegende so genannte
von-Neumann-Architektur sorgt dafür, dass die einzelnen Rechenschritte sequentiell, also Bit für Bit abgearbeitet werden. Diese kleinstmöglichen Informationseinheiten nehmen dabei jeweils einen wohldefinierten Zustand von entweder 1 oder 0 an. Quantencomputer verwenden dagegen in ihrem Kern direkt die Eigenschaften der Quantentheorie, womit sie einer völlig anderen Informationstheorie unterliegen Die Entsprechung des klassischen Bits in Quantencomputern ist das
Quantenbit, kurz
Qubit. Und Qubits haben es in sich: Sie können beispielsweise verschiedene Zustände, also 0 und 1,
simultan annehmen, sowie alle Werte dazwischen. Sie können also „halb 1“ und „halb 0“ sein. Das liegt an den Möglichkeiten von Quantenzuständen, in so genannten „Superpositionen“ zu existieren. Dies sind Überlagerungen sich klassisch gegenseitig ausschliessender Zustände. Diese bizarre Eigenschaft von Quantenteilchen war einst unter den Vätern der Quantenphysik Auslöser hitziger Diskussionen, die ihren Ausdruck zuletzt in dem bekannten Gedankenexperiment der
Schrödinger‘schen Katze fanden. Dazu kommt, dass sich verschiedene Quantenteilchen in so genannte
verschränke Zustände bringen lassen. Auch das ist eine Eigenschaft, die wir in unserer, klassischen Welt nicht kennen. Es ist, als ob die Qubits mit einer unsichtbaren Feder aneinandergekoppelt sind. Sie stehen dann allesamt direkt und ohne jede Kraftweinwirkung in Kontakt miteinander. Jedes Quantenbit „weiss“, was die anderen gerade treiben. Albert Einstein hielt Verschränkung für physikalisch unmöglich und nannte sie spöttisch „spukhafte Fernbeziehung“.
Verschränkte Qubits liegen also in einer Superposition unendlich vieler verschiedener Zustände zugleich vor, die zugleich durch ein unsichtbares und unmessbares Band miteinander verbunden sind. Salopp gesagt: das Vielteilchensystem nimmt simultan
alle möglichen Zustände ein. Einzelne physikalische Werte werden (mit einer jeweiligen Wahrscheinlichkeit) erst bei einer Messung realisiert. Vorher sind sie
objektiv unbestimmt – auch das ist wieder so eine merkwürdige Eigenschaft in der Quantenwelt. Mit Hilfe eines entsprechenden Algorithmus lassen sich nun verschränkte Qbits allesamt gleichzeitig verarbeiten. Und in dieser Parallelverarbeitung liegt die Potenz des Quantencomputers. Denn je mehr Qubits miteinander verschränkt sind, desto mehr Zustände können parallel verarbeitet werden. Es ist, als ob viele Schokoladenfabriken gleichzeitig ihre Fliessbänder angeworfen hätten und nun alle parallel Schokolade produzieren. Anders als in herkömmlichen Computern, deren Rechenleistung linear mit der Anzahl der Rechenbausteine steigt, erhöht sich damit die Leistung eines Quantencomputers
exponentiell mit der Anzahl der eingesetzten Qubits. Die Leistung eines Quantencomputers verdoppelt sich also nicht erst, wenn zu 100 Qubits weitere 100 Qubits hinzugeschaltet werden, sondern bereits, wenn nur ein einziges Qubit zu den 100 Qubits hinzugefügt wird. Kommen 10 dazu, vertausendfacht (genauer 1024-facht) sich seine Leistung, bei 20 neuen Qubits ist der Quantencomputer bereits eine Millionen Mal so schnell, bei 50 neuen Qubits eine Millionen Milliarden Mal. Und bei 100 neuen Informationsträgern, wenn sich die Leistungsfähigkeit eines klassischen Computers gerade mal verdoppelt hat, lässt sich die Erhöhung der Leistungsfähigkeit eines Quantencomputers kaum mehr in Zahlen benennen. Mit dieser enormen Macht der Parallelrechnung liessen sich Probleme lösen, die selbst für die heute in Physik, Biologie, Wetterforschung und anderswo eingesetzten „Supercomputer“ noch bei weitem zu schwierig zu verarbeiten sind.