„Exponentielles Wachstum“ ist in der IT ein oft verwendeter Begriff. Manchmal wird dabei von Gesetzen gesprochen. Nicht immer ist das richtig. Das Mooresche Gesetz, das eine regelmäßige Verdoppelung der Zahl von Transistoren auf integrierten Schaltkreisen und damit eine Verdoppelung der Rechenleistung vorhersagt, ist ein Beispiel. Ein anderes ist das weltweite Datenvolumen, das ebenfalls exponentiell steigt.
Beide Beispiele, Anstieg der Rechenleistung und Anstieg der Datenmenge, sind real. Aber für keines der beiden Beispiele gibt es ein Gesetz, das hier ein exponentielles Wachstum vorschreibt. Schon gar kein Naturgesetz. Ganz anders beispielsweise Newton und die Schwerkraft: Das ist ein Gesetz. Nichts kann es außer Kraft setzen (solange wir uns nicht in die Quantenwelt begeben).
Aber Moore und die Rechenpower? Das ist kein Gesetz, sondern eine Beobachtung – und während erstaunlich lange konsistente Ergebnisse bei der Steigerung beobachtet wurden, ist demnächst, wenn die Transistoren annähernd auf die Größe eines Atoms geschrumpft sind, Schluss damit. Dann endet die Beobachtung, die nie auf einem Gesetz beruht hat. Und die wachsende Datenmenge? Ist, solange Daten sich nicht wie die Seerosen auf dem Teich von selbst vermehren, einfach eine Folge unseres selbstbestimmten Handelns – und genauso wenig Gesetz wie beispielsweise der Anstieg von Mikroplastik in den Weltmeeren.
Anders bei den Qubits. Im Quantencomputer nimmt mit jedem zusätzlichen Qubit die Rechenleistung tatsächlich exponentiell zu. Im Quantencomputer kann, siehe oben, jedes Qubit gleichzeitg jeden Zustand zwischen 0 und 1 einnehmen. Und, nicht oder. Daraus folgt kein linearer, sondern ein echter exponentieller Anstieg. Die Rechenleistung eines Quantencomputers verdoppelt sich mit jedem neuen Qubit. Geht man konservativ davon aus, dass ein Qubit zwei verschiedene Zustände darstellen kann, kann ein Qubit zwei Zustände, können zwei Qubits vier Zustände, können drei Qubits acht Zustände und vier Qubits 16 Zustände darstellen. Bei 300 Qubits, haben die Redakteurinnen und Redakteure der Fernsehsendung Quarks ausgerechnet, ist die Zahl der darstellbaren Zustände höher als die Zahl aller Teilchen im Universum. Und mit dem 301. Qubit sind es dann schon wieder doppelt viele. Das hat Folgen.
Ein Quantencomputer kann ganz anders rechnen als ein herkömmlicher Computer.
Wäre der herkömmliche Computer eine Maus, die aus einem Labyrinth herausfinden will, müsste sie, egal wie schnell und wie klug sie ist, Schritt für Schritt so lange die verschiedenen möglichen Wege ausprobieren, bis sie einen richtigen Weg gefunden hat. Viel Arbeit für eine Maus. Hat der Computer einen Prozessor mit zwei Kernen, geht es etwas schneller, denn dann sind zwei Mäuse gleichzeitig unterwegs und bei vier Prozessorkernen sogar schon vier.
Ganz anders der Quantencomputer.
Hier braucht es, um zwei Mäuse gleichzeitig loszuschicken, keine zwei Prozessorkerne, sondern nur zwei Qubits. Bei drei Qubits sind es nicht drei Mäuse, sondern schon vier und bei vier acht, die gleichzeitig, jede davon auf ihrem eigenen Weg loslaufen. Schon bei 20 Qubits sind es so viele Möglichkeiten, dass der Vergleich mit den Mäusen längst keinen Sinn mehr ergibt: Ein Experiment durchzuführen, bei dem mehr als eine Million Mäuse gleichzeitig durch ein Labyrinth gescheucht werden, wäre, selbst wenn es von der Ethikkommission genehmigt würde, eines mit fragwürdigem Aussagecharakter.
Nehmen wir also statt Mäusen Menschen. Setzen sie nicht in ein Labyrinth, sondern in eine Stadt. Lassen sie tun, was Menschen eben tun. Das Kind zur KiTa bringen. Einer Wanderbaustelle ausweichen. Ins Meeting müssen. Ein fremdes Lastenrad auf ihrem Platz finden. Zustände kriegen. Kurz Zigaretten holen. Dann ist das keine Tierquälerei, sondern Menschenalltag und ein ideales Spielfeld für Simulationen für einen künftigen Quantencomputer, die herkömmliche Supercomputer alt aussehen lassen würde.
Ein anderer Anwendungsfall ist besonders gut bekannt. Wahrscheinlich deshalb, weil er gleichzeitig eine vage Möglichkeit auf eine Veränderung zum Guten hin verspricht und auch eine handfeste Gefahr darstellt, die uns alle betrifft: die Zerlegung großer Zahlen in ihre Primfaktoren.
15 = 3 x 5. Diese einfache Gleichung ist für Quantencomputer historisch. Aufgaben wie diese, die Zerlegung einer Zahl in ihre Primfaktoren, sind die Basis der gängigen Methoden zur Verschlüsselung von Daten – und Daten verschlüsseln und entschlüsseln zu können und gleichzeitig Unbefugten das Entschlüsseln verschlüsselter Daten unmöglich zu machen, ist eine mächtige Fähigkeit. Was dabei auf dem Spiel stehen kann, zeigt die Arbeit Alan Turings, der nicht nur dem modernen Computer den Weg bereitet, sondern auch die Chiffriermaschine Enigma geknackt und damit den Untergang der Nazis im 2. Weltkrieg beschleunigt, wenn nicht gar überhaupt erst ermöglicht hat. Verschlüsselung ist ein großes Ding.
Was ich nicht über Verschlüsselung wusste, ist dass die Abkürzung RSA für Rivest, Shamir, Adleman steht. Das sind die Nachnamen der Entwickler, die sich das gängige Verfahren zur sicheren Verschlüsselung von digitalen Daten ausgedacht haben. Dabei werden, um eine Datei zu verschlüsseln, zwei etwa 2.000 Bit, also sehr große Primzahlen miteinander multipliziert. Das kann jeder Computer sehr schnell. Das Ergebnis ist eine noch größere Zahl von ungefähr 4.000 Bit. Wer die Verschlüsselung knacken will, muss in der Lage sein, die 4.000 Bit-Zahl so zu zerlegen, dass die beiden ursprünglichen Zahlen dabei herauskommen. Das schafft kein herkömmlicher Computer in vertretbarer Zeit. Dazu müsste man schon den nach seinem Erfinder Peter Shor benannten Shor-Algorithmus anwenden können – dass das nicht nur theoretisch, sondern auch praktisch möglich war, bewiesen Forscher um Isaac Chuang 2001, dem es laut IBM darum ging anzugeben, indem sie eben jene 15 in 3 mal 5 zerlegten und es damit in „Nature“ schafften. Natürlich war dabei nicht die Lösung, sondern der Quantencomputer entscheidend, der die Berechnung ausführte. Die Anzahl der Qubits, die IBM dafür benötigte? Sieben.
Einen Quantencomputer, der mit dem Shor-Algorithmus einen RSA-Softwareschlüssel mit 2.048 Bit knacken kann, gibt es noch nicht. Aber Quantencomputer werden besser. Man kennt die Meilensteine, die die Entwicklung Künstlicher Intelligenz im Vergleich zu menschlicher Intelligenz markieren. Die Niederlage von Garry Kasparov gegen IBMs Deep Thought im Schach. Die Niederlage von gegen Googles im Go. Die Niederlage der von Menschen programmierten KI gegen die selbstlernende KI von im Go. Bei Quantencomputern sind die Meilensteine – womöglich, weil es sehr viel mehr Menschen gibt, die ein Schachbrett richtig aufbauen können, als es Menschen gibt, die sich, um ein aktuelles Beispiel zu nennen, für „die Verteilung von Teilchen und Feldern in einem magnetisierten 2D-Material“ begeistern können – weniger bekannt. Aber es gibt sie.
IBM schickte 2023 einen Quantencomputer gegen einen Supercomputer ins Rennen. Beide Computer mussten identische Aufgaben lösen. Es ging um die eben erwähnte Verteilung von Teilchen und Feldern in einem magnetisierten 2D-Material. Was ich mir schon beim ersten Lesen merken konnte war, war erstens dass das mit den Teilchen und Feldern in einem magnetisierten 2D-Material ist ein übliches Problem in der Festkörperphysik. Und zweitens, dass die Aufgaben zwei Merkmale aufwiesen.
Zum einen waren es keine Aufgaben, bei denen der Quantencomputer einen dahingehenden Vorteil hatte, weil es eine für Quantencomputer prädestinierte Aufgabe war. Kein Labyrinth also und auch keine Primzahlfaktorisierung. Zum anderen waren die Aufgaben anfangs noch relativ leicht. Ersteres sollte für faire Wettbewerbsbedingungen sorgen. Letzteres dafür, dass die menschlichen Beobachter und Schiedsrichter in diesem Duell der Maschinen zumindest in der Anfangsphase noch beurteilen konnte, was die beiden Kontrahenten ausrechneten und ob die beiden Computer (oder einer von beiden; oder keiner) überhaupt brauchbare Ergebnisse lieferten.
Anfangs, bei den leichten Aufgaben, spuckte der Quantencomputer die gleichen Ergebnisse wie der Supercomputer. Beide Computer lagen richtig. Später, als die Forscher die Korrektheit der Ergebnisse nicht mehr ohne weiteres zu überprüfen imstande waren, lagen die Quanten- und Supercomputer immer öfter auseinander. Mindestens einer musste sich verrechnet haben. Aber welcher? Um das herauszufinden, rechneten die Forscher – weil sie ohne die Hilfe von Super- und Quantencomputer mehr nicht in im vertretbaren Zeitrahmen schaffen konnten – einige zufällig ausgewählte Aufgaben nach. Und erklärten den Quantencomputer zum Sieger. Der Quantencomputer hatte den Supercomputer besiegt. Die Anzahl der Qubits, die IBMs Quantencomputer Sycamore dafür benötigte: 127.
Zurück zur Verschlüsselung: Wie stark muss ein Quantencomputer sein, der den Shor-Algorithmus anwendet? Diese Frage beantwortet Wikipedia: „Um eine Zahl n mit N Binärstellen (d. h., n<2N) zu faktorisieren, benötigt ein Quantencomputer ein Quantenregister, dessen Größe mindestens linear mit der Zahl der Binärstellen wächst.“ Um eine Zahl von 4.000 Bit mit dem Shor-Algorithmus zu faktorisieren, braucht es damit einen Quantencomputer mit 4.000 Qubits.
Theoretisch.
Praktisch muss der Quantencomputer, der es mit der RSA-Verschlüsselung aufnehmen soll, aber deutlich leistungsfähiger sein. Der Grund dafür liegt an einem weiteren Phänomen, das die Quantenwelt so schwer zu durchschauen macht. Dem der Unschärfe.