Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Google Willow: Riesiger Fortschritt bei der Entwicklung von Quantenprozessoren

Aktuelle Prozessoren arbeiten stets mit binären Systemen, welche nur zwei Zustände unterscheiden. Quantencomputer machen sich die Eigenschaft subatomarer Partikel zu Nutze, drei unterschiedliche Stadien annehmen zu können. Damit sind bestimmte Berechnungen deutlich schneller vollzogen als mit einem halbleiterbasierten Mikroprozessor. Googles Forschungsabteilung Quantum AI stellte jetzt mit Willow einen 105-Qubit-Chip vor, welcher den hauseigenen Quantenbenchmark deutlich schneller arbeitet als der 2019 vorgestellte Sycamore-Quantenchip. Zudem konnten Fehlerhäufigkeiten reduziert und die Lebensdauer eines Quantensystems auf durchschnittlich eine Stunde erhöht werden.


Qubits sind die datenverarbeitenden Einheiten experimenteller Quantenchips. Kernproblem von Quanten-IT stellt eine recht hohe Fehlerrate dar. Das Quantum-AI-Team umschifft dieses Problem, indem es mehrere Qubits zu einem „logischen Qubit“ zusammenfasst. Etwa die Hälfte der physikalischen Qubits kümmern sich darum, eventuell auftretende Fehler zu korrigieren. Mit dieser Anordnung gelang es, die Fehlerrate auf unter 1 Prozent zu drücken. Außerdem stieg die durchschnittliche Kohärenzzeit einzelner Qubits auf 100 µs.

Zweiter Meilenstein bewältigt
Quantum AI hat eine Roadmap aufgestellt, deren einzelne Meilensteine methodisch abgearbeitet werden. Das erste Ziel erreichte der Sycamore-Chip mit 56 Qubits, den die Forscher im Jahr 2019 vorstellten. Dieser benötigte 200 Sekunden für eine Aufgabe im Random-Circuit-Sampling-Benchmark (RCS) – ein „klassischer“ binärer Supercomputer hätte dafür 10.000 Jahre gebraucht. Der 2024 vorgestellte Willow-Chip berechnete in 300 Sekunden, was einen Supercomputer 10^25 Jahre beschäftigen würde. Angestrebter Meilenstein war allerdings eine Reduktion der Fehlerrate – und auch dort sieht Quantum AI einen „exponentiellen Fortschritt“ bei ihrem Willow-Chip.

Die Roadmap von Quantum AI. Vom ersten bis zum Erreichen des zweiten Meilensteins vergingen vier Jahre. (Quelle: quantumai.google)

Langer Weg bis zur praktischen Anwendung
In einem auf YouTube veröffentlichten Gespräch beschreiben Projektgründer Hartmut Neven, Quantum-AI-Forscher Sergio Boixo und John Preskill (Theoretischer Physiker, Caltech) die Herausforderungen und Perspektiven ihrer Forschungsarbeit. Als Nächstes wollen sie die Fehlerrate um weitere vier Größenordnungen verringern – in einem Chip mit über 1000 physikalischen Qubits. Hartmut Neven prognostiziert ein kommerziell nutzbares Produkt in vielleicht fünf bis zehn Jahren. John Preskill ist nicht so optimistisch, denkt aber, dass der aktuelle Willow-Chip bereits jetzt in der Forschung Anwendung finden könnte.

Kommentare

aMacUser
aMacUser12.12.24 16:05
MTN
Dieser benötigte 200 Sekunden für eine Aufgabe im Random-Circuit-Sampling-Benchmark (RCS) – ein „klassischer“ binärer Supercomputer hätte dafür 10.000 Jahre gebraucht.
Ist das wieder so ein Benchmark, der extra für Quantencomputer entwickelt wurde? Denn die letztens Behauptungen von Google, dass Quantencomputer überlegen seien, waren völliger Unsinn. Das war ungefähr so, als würde man sich beschweren, dass man auf einer Schreibmaschine kein GTA spielen kann.
+6
Clean12.12.24 17:24
Wie schnell ist ein Qubit im Vergleich zu einem Bit?
Beispielsweise kann ein typisches Bit mit einer Geschwindigkeit von Gigahertz (Milliarden Mal pro Sekunde) zwischen 0 und 1 wechseln, während ein typisches Qubit mit einer Geschwindigkeit von Terahertz (Billionen Mal pro Sekunde) zwischen 0 und 1 wechseln kann . Die Geschwindigkeit ist jedoch nicht der einzige Faktor, der die Leistung eines Quantencomputers bestimmt.
Na dann )
-1
esc
esc12.12.24 19:03
Quantencomputer und kalte Fusion stehen seit gefühlt 30 Jahren immer kurz vor dem Durchbruch.
+13
Metty
Metty12.12.24 19:29
Warte mal ... verstehe ich das richtig?
"... die Fehlerrate auf unter 1 Prozent zu drücken."
"... und die Lebensdauer eines Quantensystems auf durchschnittlich eine Stunde erhöht werden."
Ein Prozessor, der kaum eine Stunde lebt und dabei fast jede hundertste Berechnung falsch durchführt? Das scheint wirklich wildeste Forschung zu sein. Aber wer weiss? Vielleicht sehe ich das zu kritsich und die Zukunft wird mich eines besseren belehren. Interessant ist das auf jeden Fall.
-3
aMacUser
aMacUser12.12.24 20:13
Metty
Warte mal ... verstehe ich das richtig?
"... die Fehlerrate auf unter 1 Prozent zu drücken."
"... und die Lebensdauer eines Quantensystems auf durchschnittlich eine Stunde erhöht werden."
Ein Prozessor, der kaum eine Stunde lebt und dabei fast jede hundertste Berechnung falsch durchführt? Das scheint wirklich wildeste Forschung zu sein. Aber wer weiss? Vielleicht sehe ich das zu kritsich und die Zukunft wird mich eines besseren belehren. Interessant ist das auf jeden Fall.
Wenn man sich mal überlegt, wie die ersten Computer funktioniert haben, im Vergleich zu modernen Computern passt das schon.
+4
frankh12.12.24 20:17
Wenn der in der einen Stunde erledigt, wozu andere Rechner 12*10^25 Jahre gebraucht hätten ist das ok, finde ich. So lange hält kein Mac. Und über Updates muss man sich in der Stunde auch keinen Kopf machen.
+9
Lyhoo
Lyhoo12.12.24 20:24
Metty
Warte mal ... verstehe ich das richtig?
"... die Fehlerrate auf unter 1 Prozent zu drücken."
"... und die Lebensdauer eines Quantensystems auf durchschnittlich eine Stunde erhöht werden."
Ein Prozessor, der kaum eine Stunde lebt und dabei fast jede hundertste Berechnung falsch durchführt? Das scheint wirklich wildeste Forschung zu sein. Aber wer weiss? Vielleicht sehe ich das zu kritsich und die Zukunft wird mich eines besseren belehren. Interessant ist das auf jeden Fall.
Die eine Stunde Lebenszeit sehe ich nicht kritisch. Wenn dann die Arbeit eines Supercomputers von zig Jahren erledigt ist, dann hat es sich gelohnt.
+3
Deppomat13.12.24 01:57
aMacUser
Ist das wieder so ein Benchmark, der extra für Quantencomputer entwickelt wurde?
Genau so scheint es zu sein. Gestern ein Fernsehinterview mit einem Informatikprofessor gesehen, der erklärt hat: es ist ein „Quantenproblem“, und der traditionelle Computer muß zur Lösung einen Quantencomputer simulieren. Ja ok, das klingt gefuddelt.
+1
gfhfkgfhfk13.12.24 20:11
Metty
Ein Prozessor, der kaum eine Stunde lebt und dabei fast jede hundertste Berechnung falsch durchführt?
Der Computer lebt länger, der spezielle Zustand der Qubits lebt nur eine Stunde. Danach muss man das System wieder neu initialisieren und die Qubits neu erzeugen.

Ein Quantencomputer funktioniert komplett anders als ein klassischer Computer, und wahrscheinlich wird man den Unterschied ohne Physikstudium auch nur schwer bis gar nicht begreifen. Klassische Algorithmen laufen auf diesem System auch nicht, man muss komplett neue Algorithmen entwickeln.
+3
aMacUser
aMacUser14.12.24 12:20
gfhfkgfhfk
Klassische Algorithmen laufen auf diesem System auch nicht, man muss komplett neue Algorithmen entwickeln.
Und das ist der Knackpunkte, denke ich. Denn anstatt neue Algorithmen für bekannte Probleme zu suchen, die auch schon auf "normalen" Computern laufen, denkt man sich komplett neue Probleme aus, die auf normalen Computer völlig unnütz sind.
Beispiel für ein "praxisnäheres" Beispiel: Aktuelle Supercomputer können einen SHA-1 Hash in ein paar Tagen knacken. Da wäre es jetzt spannend, wie lange ein Quantencomputer dafür braucht. Stunden? Minuten? Sekunden? Das wäre man ein sinnvollerer Benchmark, der auch tatsächlich etwas aussagt. Da es sich bei den Hash-Kollisionen um "simple" Mathematik handelt, sollte das auch auf Quantencomputern problemlos abbildbar sein.
+2
gfhfkgfhfk14.12.24 19:19
aMacUser
gfhfkgfhfk
Klassische Algorithmen laufen auf diesem System auch nicht, man muss komplett neue Algorithmen entwickeln.
Beispiel für ein "praxisnäheres" Beispiel: Aktuelle Supercomputer können einen SHA-1 Hash in ein paar Tagen knacken. Da wäre es jetzt spannend, wie lange ein Quantencomputer dafür braucht. Stunden? Minuten? Sekunden? Das wäre man ein sinnvollerer Benchmark, der auch tatsächlich etwas aussagt. Da es sich bei den Hash-Kollisionen um "simple" Mathematik handelt, sollte das auch auf Quantencomputern problemlos abbildbar sein.
So einfach ist das nicht, da Quantencomputer wie gesagt anders funktionieren. Meines Wissens kann man RSA Schlüssel mit QC angreifen. Peter Shor hat schon 1994 einen Algorithmus vorgestellt mit dem das theoretisch geht. Das Problem bei RSA ist, dass man n=pq faktorisieren muss, n ist Teil des öffentlichen Schlüssels. Da p und q große Primzahlen sind, ist das für klassische Computer eine sehr schweres Problem.

Der Shor Algorithmus gilt als ineffizient und würde viel zu viele Qubits benötigen, aber dieser Artikel zeigt wie es deutlich besser gehen könnte. Kurz zusammengefasst anstatt vielen Jahren auf einem klassischen Computercluster braucht man mit einem geeigneten QC nur Sekundenbruchteile.
0
aMacUser
aMacUser15.12.24 15:52
gfhfkgfhfk
Kurz zusammengefasst anstatt vielen Jahren auf einem klassischen Computercluster braucht man mit einem geeigneten QC nur Sekundenbruchteile.
Das ist aber nur eine theoretische Überlegung einer theoretischen Theorie. Wenn das tatsächlich klappen würde, warum zeigt Google das nicht? Wenn das, wie du behauptest, schonmal jemand durchgerechnet hat, muss es ja schon einen passenden Algorithmus geben. Denn was soll man da sonst durchgerechnet haben?
Aber vielleicht traut sich Google auch einfach nicht zuzugeben, dass deren Quantencomputer aktuell einfach noch keinen sinnvollen Nutzen hat. Aber das wäre ja nicht schlimm, schließlich ist das alles noch Forschungsarbeit.
+2
aMacUser
aMacUser16.12.24 08:48
Golem hat auch einen Artikel hierzu veröffentlicht, der noch deutlich tiefer uns Detail geht. Und anderem wird verdeutlicht, dass dieser Benchmark von Google vollkommener Blödsinn ist.
0
gfhfkgfhfk16.12.24 10:40
aMacUser
Das ist aber nur eine theoretische Überlegung einer theoretischen Theorie. Wenn das tatsächlich klappen würde, warum zeigt Google das nicht?
US Firmen verkünden in erster Linie sehr viel heiße Luft, wenn es um angebliche oder tatsächliche Fortschritte geht – Apple macht das ebenso. Als Bürger muss man das berücksichtigen, und die Meldungen mit entsprechender Skepsis zur Kenntnis nehmen. Mir ist es zu mühsam die kompletten technischen Beschreibungen der tatsächlichen Erfolge durchzulesen, da sich Physiktexte nun einmal nicht wie ein Roman lesen lassen.

Hattest Du versucht, den von mir verlinkten Artikel zu lesen?

Ich hatte vor >20Jahren einen Artikel über Shors Algorithmus durch gearbeitet. Die 50 Seiten zum verbesserten Faktorisierungsalgorithmus durchzuarbeiten würde wohl Tage in Anspruch nehmen (ich mache nicht mehr jeden Tag QM). Ähnlich anspruchsvoll dürfte es sein, wenn man die technischen Artikel von Google durcharbeiten wollte. Stattdessen gibt es diese nichtssagenden Presseartikel. Man muss Wissen über Physik und theoretische Informatik verfügen, um einen aussagekräftigen Artikel zu schreiben.
aMacUser
Aber vielleicht traut sich Google auch einfach nicht zuzugeben, dass deren Quantencomputer aktuell einfach noch keinen sinnvollen Nutzen hat.
Aus den Presseartikeln lässt sich nicht beurteilen was Google wirklich konstruiert hat. Damit meine ich, dass man nicht erfährt was die Maschine wirklich kann.
0
aMacUser
aMacUser16.12.24 11:15
gfhfkgfhfk
aMacUser
Aber vielleicht traut sich Google auch einfach nicht zuzugeben, dass deren Quantencomputer aktuell einfach noch keinen sinnvollen Nutzen hat.
Aus den Presseartikeln lässt sich nicht beurteilen was Google wirklich konstruiert hat. Damit meine ich, dass man nicht erfährt was die Maschine wirklich kann.
Golem hat das gut dargestellt. Die haben das aus einer wissenschaftlichen Veröffentlichung von Google zu dem neuen Prozessor
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.