Einige erstaunliche Fakten über Quantencomputer, von denen ich nicht wusste, dass ich sie nicht wusste

Unschärfe

Ich wusste, dass es den Begriff Unschärfe gibt und ich wusste auch, dass er mit Werner Heisenberg zu tun hat. Auch dazu gibt es einen Witz oder unzählige Variationen davon, in denen der im Auto rasende Heisenberg von der Polizei gestoppt und gefragt wird, ob er eigentlich weiß, wie schnell er fährt. Bei Heisenbergs Unschärfetheorie geht es aber nicht nur darum, dass von einem Quant entweder die Richtung oder die Geschwindigkeit, aber niemals beides gleichzeitig bekannt ist, sondern auch, und ich wusste nicht, dass ich das nicht wusste, viele Quantenphänomene nicht genau gemessen werden können. Man kann mit hoher Wahrscheinlichkeit davon ausgehen, dass etwas ist, wie es ist. Aber ganz genau weiß man es nicht immer. Es bleibt eine kleine Unschärfe. Die Heisenbergsche Unschärfe.

„Die Wahrscheinlichkeit, von einem Lama getötet zu werden, ist gering, aber niemals Null“, steht auf einem anderen T-Shirt im Science Shop. Ähnlich ist das im Quantencomputer. Ist die Maus wirklich im Ziel angekommen? Die Wahrscheinlichkeit ist hoch, aber niemals 100 Prozent. Der Grund dafür ist, oben ging es beim Thema Kühlung und Erschütterung bereits darum, dass Quanten so unzuverlässig sind und so empfindlich. Qubits sind das auch und eine Reihe miteinander verknüpfter Qubits ist das umso mehr. Selbst nahe dem absoluten Nullpunkt kann es sein, dass die Qubits ihre Verschränkung verlieren. „Jemand, der in der Nähe niest“, schreibt Kaku, „kann ein Experiment ruinieren.“ Ein Rechenergebnis aber, das nur möglicherweise richtig ist, ist möglicherweise auch ein Ergebnis, das Kakus Physiker seinen entspannten Nachmittag durchkreuzen könnte.  

Die Lösung besteht in Redundanz: Qubits durch Qubits absichern. Die Mäuse nicht nur einmal loslassen, sondern nochmal und nochmal und nochmal und dabei das möglicherweise richtige Ergebnis so oft replizieren, dass es zum sicheren Ergebnis wird. 

Mit Redundanz kenne ich mich ein bisschen aus. Genug, um zu wissen, dass in Rechenzentren grundsätzlich alles, was für die Aufrechterhaltung unverzichtbar ist, so oft vorhanden, dass die Ausfallwahrscheinlichkeit unter 99,999 Prozent liegt. Das gilt als sicher. Meistens reicht dafür, dass ein Teil doppelt vorhanden ist.

Was ich nicht wusste, dass ich es nicht wusste, ist: Welches Maß an Redundanz ein Quantenphysiker braucht, damit er entspannt bleiben kann, weil aus einem womöglich richtigen Ergebnis ein sicher richtiges Ergebnis wird. Für mich klingt das, was Kaku dazu schreibt, etwas neurotisch, aber ich muss mich ja auch keine Supercomputern im Rechnen besiegen: „Man hat überlegt, dass vielleicht 1.000 Qubits notwendig sein könnten, um nur ein Qubit zu sichern, sodass diese Menge an Qubits Fehler korrigieren kann, die sich in Berechnungen einschleichen. Das bedeutet aber, dass man für einen Quantencomputer mit 1.000 Qubits eine Million Qubits benötigt.“ 

Und der hätte dann noch immer nur ein Viertel der Qubits, die zum Knacken einer mit RSA verschlüsselten, 4.000 Bit großen Zahl notwendig wäre – wobei, exponentielles Wachstum, die Rechenpower des Quantencomputers sich mit jedem einzelnen Qubit zwischen 1.000 und 4.000 verdoppeln würde. Wozu ein Quantencomputer, der die RSA-Verschlüsselung knackt, sonst noch imstande wäre? Das ist etwas, das ich gerne wüsste.