Google sagt, dass Quantencomputing-Anwendungen fünf Jahre entfernt sind
Vor einigen Wochen postulierte Nvidia-CEO Jensen Huang auf der CES 2025, dass die praktische Nutzung von Quantencomputing etwa 20 Jahre entfernt sei. Heute sagte Hartmut Neven, Chef der Quantentechnologie bei Google, gegenüber Reuters , dass wir innerhalb von fünf Jahren reale Anwendungen des Quantencomputings sehen könnten. Also, wer hat Recht?
Laut Huang verfügen aktuelle Quantensysteme nicht über genügend „Qubits“. Tatsächlich sind sie um etwa fünf oder sechs Größenordnungen kürzer. Aber warum brauchen wir so viele? Nun, aktuelle Forschungsergebnisse deuten darauf hin, dass mehr Qubits zu weniger Fehlern führen und genauere Quantencomputer schaffen. Lassen Sie uns darüber sprechen, warum das so ist.
Ein Qubit ist genau das, wonach es sich anhört – ein Quantenbit. Es unterscheidet sich von einem Binärbit in einem normalen Computer, da es mehr Daten auf einmal kodieren kann. Das Problem bei Qubits ist, dass es sich um Quantenteilchen handelt – und Quantenteilchen tun nicht immer das, was wir wollen. Wenn wir Berechnungen auf einem Quantencomputer durchführen, „versagt“ jedes einzelne von tausend Qubits (d. h. hört auf, das zu tun, was wir wollen) und verfälscht die Ergebnisse.
Früher hatten wir ein ähnliches Problem mit herkömmlichen Computern. Der ENIAC-Computer beispielsweise verwendete über 17.000 Vakuumröhren zur Darstellung von Bits, und alle paar Tage fielen Röhren aus und erzeugten Fehler. Aber die Lösung war hier einfach: Wir mussten einfach die Vakuumröhren weglassen und etwas finden, das nicht so oft ausfiel. Wenn wir ein paar Jahrzehnte vorwärts blicken, haben wir winzige Siliziumtransistoren mit einer Ausfallrate von eins zu einer Milliarde.
Für Quantencomputing wird diese Lösung nicht funktionieren. Qubits sind Quantenteilchen, und Quantenteilchen sind, was sie sind. Wir können sie nicht aus etwas anderem aufbauen und wir können sie nicht zwingen, in dem Zustand zu bleiben, den wir wollen – wir können nur Wege finden, sie so zu nutzen, wie sie sind.
Hier wird der Teil „nicht genügend Qubits“ relevant. Erst letztes Jahr entdeckte Google mithilfe seines Willow-Quantenchips, dass mehr Qubits weniger Fehler bedeuten. Im Wesentlichen hat Google Mega-Qubits aus mehreren physischen Qubits gebaut, die alle dieselben Daten teilen. Dadurch entsteht im Grunde ein System von Ausfallsicherungen – jedes Mal, wenn ein physisches Qubit ausfällt, gibt es ein anderes, um die Dinge auf Kurs zu halten. Je mehr physikalische Qubits Sie haben, desto mehr Ausfälle können Sie aushalten und desto größer ist die Chance, ein genaues Ergebnis zu erhalten.
Da Qubits jedoch häufig versagen und wir eine ziemlich hohe Genauigkeitsrate erreichen müssen, um Quantencomputer für reale Probleme einsetzen zu können, werden wir eine ganze Menge Qubits benötigen, um die Aufgabe zu erledigen. Huang geht davon aus, dass es bis zu 20 Jahre dauern wird, bis wir die Zahlen haben, die wir brauchen, während Neven andeutet, dass er es in fünf Jahren schaffen kann.
Weiß Google etwas, was Nvidia nicht weiß? Schürt es nur das Feuer eines freundschaftlichen Wettbewerbs? Im Moment kennen wir die Antwort nicht. Vielleicht wollte Neven einfach nur die Quantencomputing-Aktien ankurbeln, nachdem Huangs Äußerungen letzten Monat einen Verlust von rund 8 Milliarden US-Dollar verursacht hatten.
Wann immer der Durchbruch gelingt, glaubt Google, Quantencomputing nutzen zu können, um bessere Batterien für Elektroautos zu bauen, neue Medikamente zu entwickeln und vielleicht sogar neue Energiealternativen zu schaffen. Zu behaupten, dass solche Projekte in nur fünf Jahren möglich sein könnten, ist ziemlich weit hergeholt – aber ich denke, wir müssen nicht allzu lange warten, um herauszufinden, wie recht oder wie falsch Neven liegt.