Die Computertechnologie schreitet immer schneller voran. Am 15. Juni 2021 hat IBM seinen ersten in Europa beheimateten Quantencomputer Q System One in Deutschland vorgestellt. Der Hochleistungsrechner beruht nicht auf der herkömmlichen Informatik mit Bits, sondern auf Quantenmechanik mit Qubits. Der Quantentechnologie gehört die Zukunft, weil die Qubits statt nur Null oder Eins gleichzeitig beide Werte beinhalten und damit viel schneller viel kompliziertere Rechenleistungen vollbringen können.
Um Quantencomputer zu verstehen, gilt es zunächst einmal, das fundamentale Konzept der Quantenmechanik zu betrachten. Die traditionelle Physik geht davon aus, dass bestimmte Bedingungen unweigerlich bestimmte Ergebnisse bringen aufgrund der klassischen physikalischen Gesetze. Die Quantenphysik dagegen rechnet mit Wahrscheinlichkeiten. Quanten können verschiedene Zustände gleichzeitig haben, solange sie nicht gemessen werden. Erst im Moment der Beobachtung entscheidet sich der vorliegende Zustand. Was gemessen wird, hängt also von der Messung selbst ab.
Das ist nur eine sehr grobe Annährung an die Quantenmechanik. Letztlich gilt immer noch das berühmte Zitat des Physik-Nobelpreistträgers Richard Feynman: "Wer glaubt, die Quantentheorie verstanden zu haben, hat sie nicht verstanden." Aber versuchen wir trotzdem allgemein zu verstehen, warum Quantencomputer herkömmlichen Rechnern überlegen sind.
Quanten sind kleinste Teilchen im subatomaren Bereich. Als Speichereinheit in einem Quantencomputer wird ein Quant Qubit genannt. Da ein Qubit der Quantenmechanik unterliegt, kann es mehrere Zustände gleichzeitig enthalten. Dagegen kann ein Bit, das als Speichereinheit eines herkömmlichen Computers elektrische Zustände darstellt, nur entweder Null oder Eins sein. Dies führt dazu, dass Quantencomputer Informationen bis zu 100 Milliarden Mal schneller verarbeiten können als herkömmliche Rechner.
Grundsätzlich funktionieren Quantencomputer mit Qubits wie ein traditioneller Rechner, allerdings nicht mit einer konventionellen Hardware. Der größte Unterschied liegt in der Verwendung der Qubits.
Wie wir wissen, stützen sich traditionelle Computer auf den Binärcode und absolut alle Rechenoperationen basieren auf dem Ablesen von Bitsequenzen. Der elektrische Strom wird über Transistoren geleitet, die wie Schalter funktionieren und die Zustände Null oder Eins hervorbringen. Information wird als elektrische Ladung gespeichert, aber auch magnetisch im Fall von magnetischen Festplatten oder mittels Laserlicht im Fall von optischen Geräten.
Die Prozesse im Innern eines Quantencomputers sind komplizierter. Das Qubit enthält die beiden binären Zustände in Superposition und hat eine bestimmte Wahrscheinlichkeit, ob es Null oder Eins ist. Außerdem findet in einem System aus Qubits (Qubit-Register) eine sogenannte Quantenverschränkung statt, die einen Zustand des Gesamtsystems wahrscheinlich macht, der sich aber nicht aus dem Zustand der Teilsysteme ergibt wie in der klassischen Physik, sondern der die vielen gleichzeitig nebeneinander bestehenden Möglichkeiten der Qubits in Betracht ziehen muss.
Der Informationsgehalt in einem Qubit-Register einer bestimmten Größe N ist zwar genauso groß wie der eines tradtionellen N-Bit-Registers, denn auch die Qubits nehmen ja im Moment der Messung nur einen bestimmten Zustand an. Aber das Superpositionsprinzip erlaubt eine viel größere Parallelität in den Rechnungen als ein normaler Computer. Um diese Parallelität auszunutzen, bedient man sich der Interferenz.
Beim klassischen Computer werden durch Logikgatter elementare Operationen auf den Bits durchgeführt. Die Logikgatter sind elektronische Bauelemente. Dagegen ist ein Quantengatter kein technischer Baustein, sondern stellt eine elementare physikalische Manipulation eines oder mehrerer Qubits. Diese Manipulation der Qubits in einer Maschine durchzuführen, ist nicht einfach, denn Qubits brauchen einen bestimmten Raum, bestimmte Materialien und Temperaturen. Außerdem ist das System anfällig für Einflüsse von außen. Deshalb ist die Entwicklung von Quantencomputern immer noch eine große wissenschaftliche Herausforderung.
Quantencomputer können vor allem dort eingesetzt werden, wo sehr komplexe und langwierige Rechenvorgänge durchgeführt werden müssen. Denkbare Anwendungsmöglichkeiten sind die Entwicklung neuer Materialien, die Optimierung finanzieller Prozesse, die Beschleunigung der Herstellung von Medikamenten, künstliche Intelligenz und Machine Learning, Robotermissionen im Weltraum und vieles mehr.
Quantencomputer können effizienter in extrem großen, ungeordneten Datenbanken suchen (Grover-Algorithmus) oder große Zahlen faktorisieren (Shor-Algorithmus). Damit können Quantencomputer auch eine Gefahr darstellen, weil Verschlüsselungen zum Beispiel im Bereich der Kryptowährungen auf dem Shor-Algorithmus beruhen und durch Quantencomputer leicht geknackt werden könnten. Bis es soweit ist, wird man sich also auch Gedanken machen müssen, wie man die Sicherheit der Coin-Schlüssel verbessert (Post-Quanten-Kryptographie).
Der Wettlauf um den Vorsprung in der Entwicklung der Quantencomputer ist längst in vollem Gange. IBM ermöglicht seit 2015 den Online-Zugriff auf einen supraleiterbasierten Quantenprozessor und stellte im Januar 2019 seinen ersten kommerziell genutzten Quantencomputer Q System One in den USA vor. Google arbeitet mit dem selbst entwickelten Quantencomputer Sycamore und behauptete im Oktober 2019, er habe eine komplexe Berechnung in 200 Sekunden gelöst, für die der modernste Supercomputer Summit von IBM etwa 10.000 Jahre bräuchte. IBM bestritt das allerdings. China legte noch einen drauf und gab Ende 2020 bekannt, sein Quantencomputer Jiuzhang auf Photonenbasis sei noch zehn Milliarden Mal schneller als Sycamore. Sicher ist, dass uns aus dem Bereich der Quantencomputer in den nächsten Jahren weitere Erfolge und Höchstleistungen erwarten.
Foto: © IBM.