Rechen-Qubits sind die fundamentalen Einheiten der Informationsverarbeitung in einem Quantencomputer. Im Gegensatz zu klassischen Bits, die nur die Zustände 0 oder 1 einnehmen, können Rechen-Qubits durch Superposition gleichzeitig beide Zustände in einer quantenmechanischen Überlagerung repräsentieren. Diese Fähigkeit ermöglicht es, massiv parallele Berechnungen auszuführen und komplexe Probleme effizienter zu lösen als mit klassischen Rechnern.
Ein Rechen-Qubit wird primär dazu eingesetzt, aktive Operationen durchzuführen – das heißt, es wird innerhalb eines Quantenschaltkreises für die Implementierung von Logikgattern, die Ausführung von Algorithmen und die Erzeugung von Verschränkung genutzt. Anders als reine Speicher-Qubits, die lediglich Zustände speichern und vor äußeren Einflüssen schützen sollen, sind Rechen-Qubits auf hohe Gate-Fidelity, kurze Taktzyklen und präzise Steuerbarkeit optimiert.
Die quantenmechanische Natur der Rechen-Qubits lässt sich durch den Zustand
|\psi\rangle = \alpha|0\rangle + \beta|1\rangle
beschreiben, wobei \alpha und \beta komplexe Amplituden sind, die die Wahrscheinlichkeiten für das Messen des Qubits in 0 oder 1 bestimmen. Entscheidend ist hierbei die Normierungsbedingung:
|\alpha|^2 + |\beta|^2 = 1.
Rechen-Qubits unterscheiden sich von anderen Qubit-Typen durch ihren Fokus auf Rechengeschwindigkeit, Gate-Dichte und die Möglichkeit, in hoher Zahl integriert und kontrolliert zu werden.
Abgrenzung zu Speicher-Qubits und Transfer-Qubits
In modernen Quantenarchitekturen existieren unterschiedliche Spezialisierungen von Qubits. Während Rechen-Qubits für die aktiven Operationen zuständig sind, erfüllen Speicher-Qubits (oft auch Daten-Qubits genannt) vor allem die Aufgabe, Quanteninformation über längere Zeit stabil zu speichern. Diese Speicher-Qubits verfügen über besonders lange Kohärenzzeiten und sind weniger häufige Ziele direkter Gate-Manipulationen.
Transfer-Qubits wiederum dienen der Übertragung von Quantenzuständen zwischen räumlich getrennten Modulen, etwa zwischen Chips oder verschiedenen Registerbereichen. Hierfür werden spezielle physikalische Mechanismen genutzt, zum Beispiel photonenbasierte Kopplung oder bewegliche Ionenketten.
Die Unterscheidung zwischen Rechen-, Speicher- und Transfer-Qubits wird umso wichtiger, je stärker die Quantencomputer in Richtung skalierbarer Systeme wachsen. Architekturen wie die modulare Quantenvernetzung erfordern klar definierte Rollen der beteiligten Qubits, um Skalierbarkeit, Fehlertoleranz und Effizienz zu gewährleisten.
Überblick über zentrale Anwendungen in der Quanteninformatik
Rechen-Qubits bilden das Rückgrat der meisten heute erforschten Quantenalgorithmen. Beispiele:
- Faktorisierung großer Zahlen mit dem Shor-Algorithmus
- Quanten-Suchalgorithmen, z. B. Grover-Algorithmus
- Simulation komplexer Quantensysteme (z. B. Moleküldynamik)
- Optimierungsprobleme und kombinatorische Aufgaben
- Maschinelles Lernen auf Quantenprozessoren
Die konkrete Leistungsfähigkeit eines Quantencomputers hängt in erster Linie von der Zahl der Rechen-Qubits und der Qualität ihrer Gate-Operationen ab. Kennzahlen wie die Gate-Fidelity und Kohärenzzeit sind daher entscheidend, um das Potenzial einer Plattform zu bewerten.
Historische Entwicklung
Die Entwicklung von Rechen-Qubits ist untrennbar mit der Geschichte der Quanteninformationstechnologie verbunden. Anfang der 1980er Jahre begann die theoretische Auseinandersetzung mit der Idee, Quantenzustände für Rechenprozesse zu verwenden. Feynman formulierte das Konzept, dass Quantensysteme sich nur durch andere Quantensysteme effizient simulieren lassen. Diese Überlegung bildete den Ausgangspunkt für das Streben nach Rechen-Qubits.
Meilensteine der Qubit-Technologien
Ein entscheidender Schritt war die Implementierung erster kontrollierter Quanten-Gate-Operationen. In den 1990er Jahren wurden in NMR-Systemen (Kernspinresonanz) erste zwei-Qubit-Gatter demonstriert. Zwar galten NMR-Qubits nicht als skalierbar, lieferten jedoch den "Proof of Concept" für die Manipulation verschränkter Zustände.
Die Jahrtausendwende markierte den Beginn intensiver Arbeiten an supraleitenden Schaltkreisen. Forschergruppen um John Clarke (University of California, Berkeley) und Michel Devoret (Yale University) realisierten erste supraleitende Qubits mit Mikrowellensteuerung. Die Demonstration des Grover-Algorithmus auf einem Zwei-Qubit-System war ein frühes Highlight.
Parallel entwickelten sich Ionenfallen- und Halbleiterplattformen. Die Ionenfallen-Technologie profitierte stark von Präzisionstechniken der Atomphysik und konnte früh hohe Kohärenzzeiten vorweisen.
Erste Experimente mit supraleitenden Rechen-Qubits
In supraleitenden Systemen wurde zunächst mit Charge-Qubits gearbeitet, deren Zustand durch die Anzahl der Cooper-Paare bestimmt wird. Das Problem hoher Ladungsrausch-Empfindlichkeit führte bald zur Entwicklung des Transmon-Qubits. Dieses Konzept basiert auf der Reduzierung der Empfindlichkeit durch größere Josephson-Junction-Kapazitäten.
Die erste Implementierung des Transmon-Qubits mit verbesserten Kohärenzzeiten erfolgte 2007 durch Jens Koch und Kollegen. Die Zustände lassen sich über Mikrowellenpulse präzise manipulieren. Ein Transmon-Qubit wird typischerweise durch zwei Energieniveaus beschrieben:
H = 4 E_C (n - n_g)^2 - E_J \cos\varphi
wobei E_C die Ladungsenergie, E_J die Josephson-Energie und \varphi die Phasenvariable ist.
Ab etwa 2014 wurde die supraleitende Technologie durch Fortschritte bei Materialreinheit, Verkabelung und Fehlertoleranz zu einem der führenden Kandidaten für skalierbare Rechen-Qubits.
Fortschritte bei Ionenfallen und Halbleiter-Qubits
Ionenfallen-Qubits verdanken ihre Stabilität der Tatsache, dass die inneren Zustände einzelner Ionen extrem gut abgeschirmt und kontrollierbar sind. Die ersten Multi-Qubit-Gatter wurden durch Laserpulse realisiert, die kollektive Schwingungsmoden der Ionen anregen.
Ein herausragender Meilenstein war 2008 die Demonstration eines quantenlogischen CNOT-Gatters mit hoher Fidelity in einer linearen Ionenfalle.
Im Bereich Halbleiter-Qubits entstand in den 2000er Jahren ein neues Paradigma: Elektronenspins in Quantenpunkten aus Silizium oder GaAs. Die Halbleiterplattform zeichnet sich durch das Potenzial aus, Fertigungsprozesse aus der klassischen Mikroelektronik zu adaptieren. Trotz großer Herausforderungen bei Kohärenz und Rauschunterdrückung haben sich Spin-Qubits bis heute als aussichtsreiche Kandidaten etabliert.
Physikalische Grundlagen von Rechen-Qubits
Superposition und Kohärenz
Superpositionsprinzip und seine Bedeutung für Rechenoperationen
Eines der fundamentalen Merkmale von Rechen-Qubits ist ihre Fähigkeit, in einer Superposition mehrerer Zustände zu existieren. Im klassischen Bit ist stets klar definiert, ob es sich im Zustand 0 oder 1 befindet. Ein Qubit hingegen kann in einer Überlagerung beider Basiszustände repräsentiert werden:
|\psi\rangle = \alpha |0\rangle + \beta |1\rangle,
wobei die komplexen Koeffizienten \alpha und \beta die Wahrscheinlichkeit bestimmen, mit der das Qubit bei einer Messung kollabiert. Dieses Prinzip erlaubt es, Informationen exponentiell parallel zu verarbeiten. Wenn beispielsweise n Rechen-Qubits miteinander verschränkt werden, entsteht ein Zustand mit 2^n Amplituden, die gleichzeitig kodiert und manipuliert werden können.
Superposition wird genutzt, um Quantenalgorithmen zu initialisieren und simultane Berechnungszweige aufzuspannen. Ohne Superposition könnten Quantencomputer keinen Vorteil gegenüber klassischen Systemen bieten.
Kohärenzzeit als Schlüsselgröße
Die Kohärenzzeit ist ein Maß dafür, wie lange ein Rechen-Qubit seinen Quantenzustand ohne Störungen aufrechterhalten kann. Üblicherweise wird unterschieden zwischen:
- Relaxationszeit T_1: Zeit, bis das angeregte Niveau spontan in den Grundzustand relaxiert.
- Dekohärenzzeit T_2: Zeit, in der die Phasenkohärenz (Überlagerung) verloren geht.
Für Rechenoperationen ist insbesondere T_2 relevant, da Superpositionszustände empfindlich auf Rauschen reagieren. Typische Werte in aktuellen supraleitenden Rechen-Qubits liegen bei:
T_1 \approx 100 - 200 , \mu s,
T_2 \approx 50 - 150 , \mu s.
Je länger die Kohärenzzeit, desto mehr Rechengatter können sequenziell ausgeführt werden, bevor Fehlerkorrektur oder Refresh-Operationen notwendig sind.
Dekohärenzmechanismen und deren technologische Herausforderungen
Dekohärenz entsteht durch Wechselwirkungen mit der Umgebung, die dazu führen, dass ein Qubit seine Phaseninformation verliert. Wichtige Ursachen:
- Photonisches Rauschen (Mikrowellenverlust)
- 1/f-Rauschen durch Ladungs- und Fluktuationen im Substrat
- Magnetische Rauschquellen (Spin-Bäder in Materialien)
- Kopplung an Restmoden im Schaltkreis
Die Unterdrückung dieser Mechanismen erfordert extrem tiefe Temperaturen (typisch um 10 mK), hochwertige Vakuumbedingungen und abgeschirmte Umgebungen. Fortschritte in Materialforschung und Chipdesign tragen wesentlich dazu bei, die Kohärenzzeiten zu verlängern.
Verschränkung in Rechen-Qubits
Erzeugung und Nutzung verschränkter Zustände
Verschränkung ist das zweite fundamentale Phänomen neben Superposition. Verschränkte Rechen-Qubits können nicht unabhängig beschrieben werden. Ihr Gesamtzustand lautet beispielsweise für ein einfaches Bell-Paar:
|\Phi^+\rangle = \frac{1}{\sqrt{2}} \left( |00\rangle + |11\rangle \right).
In diesem Zustand ist das Messergebnis des einen Qubits immer perfekt mit dem anderen korreliert. Die Verschränkung wird in Rechenoperationen genutzt, um Quanten-Gatter zu realisieren und die Leistungsfähigkeit der Algorithmen sicherzustellen.
Zur Erzeugung verschränkter Zustände werden kontrollierte Gatter eingesetzt, die gezielt Kohärenz zwischen den Qubits herstellen. Typisch ist der Einsatz eines CNOT-Gatters oder von iSWAP-Gattern.
Bedeutung für Quanten-Logikgatter und Algorithmen
Die Funktionalität vieler Quantenalgorithmen hängt direkt von der Fähigkeit ab, robuste Verschränkungen zu erzeugen. Beispiele:
- Shor-Algorithmus: Multiplikative Überlagerungen und kontrollierte Phasenrotationen
- Grover-Algorithmus: Amplitudenverstärkung durch Verschränkung
- Fehlerkorrekturcodes: Logische Qubits werden aus mehreren physikalischen Qubits gebildet, die hochgradig verschränkt sind
Die Güte der Verschränkung wird oft durch die Fidelity des erzeugten Zustands charakterisiert. Eine hohe Fidelity ist entscheidend, um Skalierbarkeit und Fehlertoleranz zu erreichen.
Gatteroperationen
Universelle Gate-Sets (CNOT, Hadamard, Phase-Gates)
Rechen-Qubits werden über sogenannte universelle Gate-Sets gesteuert. Diese bestehen aus einer Menge elementarer Operationen, mit denen sich jede beliebige Quantenoperation approximieren lässt. Zu den wichtigsten zählen:
- Hadamard-Gate:Transformation in die Superposition:H = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 & 1 \ 1 & -1 \end{pmatrix}
- CNOT-Gate:Kontrolliertes Negieren des Zielqubits:CNOT = \begin{pmatrix} 1 & 0 & 0 & 0 \ 0 & 1 & 0 & 0 \ 0 & 0 & 0 & 1 \ 0 & 0 & 1 & 0 \end{pmatrix}
- Phasen-Gate (S-Gate):Phasenrotation um \pi/2:S = \begin{pmatrix} 1 & 0 \ 0 & i \end{pmatrix}
Diese Gates bilden den Baukasten für komplexe Algorithmen.
Geschwindigkeit und Fehlerraten
Die Geschwindigkeit eines Gatters wird durch die Dauer eines Pulses bestimmt. In supraleitenden Rechen-Qubits bewegen sich typische Ein-Qubit-Gatteroperationen im Bereich von 20–50 ns. Zwei-Qubit-Gatter dauern etwas länger, etwa 100–300 ns.
Die Fehlerrate pro Gate wird über die sogenannte Fidelity charakterisiert. Werte größer als 99 % sind aktuell Standard bei Ein-Qubit-Gattern; Zwei-Qubit-Gatter erreichen typischerweise 97–99 %.
Vergleich zu klassischen Logikgattern
Ein wesentlicher Unterschied zu klassischen Logikgattern liegt in der Reversibilität und Linearität der Quantenoperationen. Alle Quanten-Gatter sind unitär, das heißt, sie lassen sich umkehren und verändern die Wahrscheinlichkeitssumme nicht:
U^\dagger U = I.
Klassische Logikgatter wie NAND oder AND sind irreversibel und dissipativ. Diese Eigenschaft der Quanten-Gatter ermöglicht es, Informationen verlustfrei in Superposition und Verschränkung zu verarbeiten.
Technologische Realisierungen
Supraleitende Rechen-Qubits
Transmon-Qubits
Transmon-Qubits gelten heute als die führende Architektur in supraleitenden Quantenprozessoren. Sie basieren auf Josephson-Junctions – supraleitenden Tunnelkontakten –, die nichtlineare Induktivitäten erzeugen. Ihr Vorteil ist die stark reduzierte Empfindlichkeit gegenüber Ladungsrauschen, was sie gegenüber älteren Charge-Qubits überlegen macht.
Das Hamiltonian eines Transmon-Qubits lautet:
H = 4 E_C (n - n_g)^2 - E_J \cos\varphi,
wobei E_C die Ladungsenergie und E_J die Josephson-Energie darstellen. Im Transmon-Design wählt man E_J/E_C \gg 1, wodurch die Frequenzabhängigkeit vom Ladungsrauschen reduziert wird.
Die Zustände werden durch Mikrowellenpulse in supraleitenden Resonatoren manipuliert. Transmon-Qubits erreichen Kohärenzzeiten bis zu 100 Mikrosekunden und Gate-Fidelities über 99 %. Sie lassen sich relativ kompakt auf Chips integrieren, weshalb Plattformen wie IBM Quantum und Google Sycamore darauf setzen.
Flux- und Charge-Qubits
Vor dem Durchbruch des Transmons waren Flux-Qubits und Charge-Qubits intensiv erforscht:
- Charge-Qubits verwenden die Ladungszahl auf einer supraleitenden Insel als Freiheitsgrad.
- Flux-Qubits basieren auf unterschiedlichen Zirkulationsrichtungen des supraleitenden Stroms.
Flux-Qubits reagieren sehr empfindlich auf magnetisches Rauschen, während Charge-Qubits stark unter Ladungsrauschen leiden. Trotz ihrer geringeren Stabilität sind sie wichtige Vorläufer für heutige Transmon-Architekturen.
Materialien, Mikrochip-Design und Steuerung
Wichtige Materialien supraleitender Rechen-Qubits sind Aluminium, Niobium und Tantal, die bei Temperaturen um 10 mK supraleitend werden. Auf Silizium-Wafern werden mehrere metallische Schichten strukturiert, um Resonatoren, Kopplungskondensatoren und Steuerleitungen zu integrieren.
Zur Steuerung werden extrem präzise Mikrowellenpulse im GHz-Bereich generiert. Komplexe Filter- und Dämpfungssysteme verhindern thermisches Rauschen, das die Qubits stören könnte.
Beispiel: Google Sycamore, IBM Quantum
Google Sycamore ist ein 53-Qubit-Prozessor mit Transmon-Qubits, der 2019 durch die Demonstration der „Quantum Supremacy“ bekannt wurde. Dabei wurde eine Zufallsinstanz innerhalb von 200 Sekunden gelöst, die klassischen Supercomputern mehrere Jahrtausende Rechenzeit kosten würde.
IBM Quantum stellt über die Cloud Quantencomputer mit bis zu 127 Qubits (IBM Eagle) bereit. Auch hier handelt es sich um Transmon-Architekturen, die kontinuierlich in Kohärenzzeit und Skalierung verbessert werden.
Ionenfallen-Qubits
Prinzip der elektrischen und magnetischen Einfangung
Ionenfallen nutzen elektrisch geladene Atome (Ionen), die durch elektrische Wechselfelder (Paul-Fallen) und magnetische Felder in Vakuumkammern stabilisiert werden. Die Position eines Ions wird bis auf wenige Nanometer präzise fixiert.
Jedes Ion stellt ein Rechen-Qubit dar. Die inneren elektronischen Zustände codieren die Basiszustände:
|0\rangle = \text{Grundzustand},
|1\rangle = \text{angeregter Zustand}.
Durch kollektive Schwingungsmoden der Ionen kann man Verschränkung und Zwei-Qubit-Gatter implementieren.
Laserbasierte Manipulation
Die Steuerung von Ionen-Qubits erfolgt über Laser:
- Ein-Qubit-Rotation: durch resonante Anregung zwischen zwei Energieniveaus
- Zwei-Qubit-Gatter: durch Kopplung der Vibrationsmoden (Mølmer–Sørensen-Gatter)
Ionenfallen zeichnen sich durch extrem lange Kohärenzzeiten (bis Sekunden) aus. Sie sind jedoch langsamer als supraleitende Plattformen, da Laseroperationen pro Gatter mehrere 10 Mikrosekunden benötigen.
Beispiel: Quantensysteme von IonQ und Honeywell
IonQ verwendet Ytterbium-Ionen und hat ein 23-Qubit-System mit hoher Gate-Fidelity (über 99,9 %) entwickelt. Honeywell Quantum Solutions (heute Quantinuum) setzt auf Ionenfallen mit segmentierten Elektroden zur Modularisierung. Beide Plattformen bieten Cloud-Zugriff und sind führend in Fehlertoleranz und Kohärenz.
Spin-Qubits in Halbleitern
Elektronenspin als Rechenbasis
Spin-Qubits nutzen den Spin eines Elektrons in einem Quantenpunkt als Zweizustandssystem:
|0\rangle = |\uparrow\rangle,
|1\rangle = |\downarrow\rangle.
Durch Mikrowellenpulse im Magnetfeld werden Spinflips induziert, die logische Operationen ermöglichen. Spin-Qubits bieten die Chance, bekannte CMOS-Technologien zu nutzen.
Quantenpunkte und Materialherausforderungen
Quantenpunkte werden durch elektro-statische Potentiale in Halbleiterheterostrukturen gebildet. Materialsysteme sind typischerweise Silizium oder GaAs.
Herausforderungen bestehen insbesondere bei:
- Kohärenzzeiten (Dekohärenz durch Kernspins)
- Variabilität bei der Fertigung
- Skalierbarkeit der Kopplung
Dennoch konnten bereits Zwei- und Drei-Qubit-Gatter mit hoher Fidelity demonstriert werden.
Beispiel: Quantenprozessoren von Intel
Intel arbeitet an 22-nm-Fertigungsprozessen für Spin-Qubits in Silizium. Ziel ist es, Millionen von Qubits in standardisierten Herstellungsprozessen zu realisieren. Erste Prototypen zeigen Kohärenzzeiten im Millisekundenbereich.
Photonenbasierte Rechen-Qubits
Lineare Optik und photonische Gate-Implementierung
Photonenbasierte Rechen-Qubits verwenden die Polarisationszustände oder zeitliche Moden einzelner Photonen als Basiszustände:
|H\rangle = \text{horizontale Polarisation},
|V\rangle = \text{vertikale Polarisation}.
Logikgatter werden durch Interferometer, Strahlteiler und Phasenverschiebungen realisiert. Diese lineare Optik ist intrinsisch rauscharm und sehr stabil.
Ein Beispiel ist der KLM-Ansatz (Knill-Laflamme-Milburn), bei dem nichtdeterministische Zwei-Photonen-Gatter implementiert werden. Photonenbasierte Qubits sind besonders für Quantenkommunikation und verteiltes Computing attraktiv.
Anwendungen in der skalierbaren Quanteninformation
Photonische Rechen-Qubits werden intensiv für skalierbare Architekturen untersucht, insbesondere für:
- Quanten-Repeaters
- Cluster-State-Rechner
- Hybridansätze mit Materiequbits (Spins oder Ionen)
Unternehmen wie PsiQuantum verfolgen das Ziel, einen millionen-Qubit-Photonenprozessor zu realisieren.
Architektur und Skalierbarkeit
Logische vs. Physikalische Qubits
Rechen-Qubits in heutigen Quantencomputern sind zunächst physikalische Qubits. Sie bestehen aus realen Quantensystemen – Transmon-Schaltkreisen, gefangenen Ionen, Spins oder Photonen – und sind daher anfällig für Fehler durch Rauschen, Dekohärenz und Steuerimperfektionen.
Um fehlerresistente Rechenoperationen durchzuführen, braucht es logische Qubits. Diese entstehen durch das Einbetten von Redundanz und Fehlerkorrektur in die Quantenregister. Ein logisches Qubit wird aus vielen physikalischen Qubits zusammengesetzt. Ziel ist es, eine effektive Dekohärenzzeit zu erreichen, die um Größenordnungen länger ist als die Lebensdauer eines einzelnen physikalischen Qubits.
Ein zentrales Konzept ist der Fehlerkorrektur-Overhead: Für ein einziges logisches Qubit können – je nach Fehlerschwelle und Code – Hunderte oder Tausende physikalische Qubits erforderlich sein.
Fehlerkorrektur und Overhead
Quantenfehlerkorrektur nutzt die Verschränkung und Superposition, um Fehler zu detektieren, ohne die Quanteninformation zu zerstören. Ein Beispiel: der Shor-Code, der neun physikalische Qubits pro logischem Qubit benötigt, um sowohl Bitflip- als auch Phasenfehler zu korrigieren.
Das Schema des Shor-Codes kann so beschrieben werden:
|0_L\rangle = \frac{1}{2\sqrt{2}} (|000\rangle + |111\rangle) \otimes (|000\rangle + |111\rangle) \otimes (|000\rangle + |111\rangle),
|1_L\rangle = \frac{1}{2\sqrt{2}} (|000\rangle - |111\rangle) \otimes (|000\rangle - |111\rangle) \otimes (|000\rangle - |111\rangle).
Der Overhead ist erheblich, wird jedoch durch die exponentielle Verbesserung der Fehlerresistenz gerechtfertigt.
Oberflächen-Codes und Shor-Code
Besonders bekannt ist der Oberflächen-Code (Surface Code), der eine zweidimensionale Anordnung physikalischer Qubits nutzt. Seine Vorteile:
- Fehlerdetektion durch Nachbarschaftsoperatoren (Stabilisatoren)
- Lokalität der Wechselwirkungen (nur benachbarte Qubits koppeln)
- Relativ hohe Fehlerschwelle (~1%)
Im Oberflächen-Code wird ein logisches Qubit typischerweise aus einem Gitter von 13x13 oder größer aufgebaut. Auch IBM und Google setzen bei ihren Roadmaps auf Oberflächen-Codes.
Vernetzung von Rechen-Qubits
Quantenbusse
Um mehrere Rechen-Qubits effizient zu koppeln, kommen Quantenbusse zum Einsatz. Ein Quantenbus ist ein Übertragungskanal, der Quantenzustände von einem Qubit zum anderen vermittelt. In supraleitenden Architekturen sind dies Resonator-Moden, deren Hamiltonian idealisiert lautet:
H = \hbar \omega a^\dagger a + \sum_j g_j (\sigma_j^+ a + \sigma_j^- a^\dagger),
wobei a^\dagger und a die Erzeugungs- und Vernichtungsoperatoren des Resonators sind und g_j die Kopplungsstärke zum j-ten Qubit.
Ionenfallen nutzen kollektive Schwingungsmoden als Bus, während photonische Systeme optische Wellenleiter einsetzen.
Modularisierung von Quantenprozessoren
Die Skalierbarkeit erfordert eine Modularisierung der Qubit-Anordnung. Statt ein riesiges Monolith-Array zu bauen, verbindet man Module mit je einigen Hundert Qubits zu größeren Architekturen. Diese Module interagieren über Quantenlinks (optisch oder mikrowellenbasiert).
Ein modularer Aufbau hat Vorteile:
- Reduktion der Komplexität pro Einheit
- Parallele Fehlertoleranzzyklen
- Austausch defekter Module
Diese Strategie verfolgt u. a. Honeywell/Quantinuum.
Quantenkommunikation zwischen Chips
Um Rechen-Qubits über längere Distanzen zu verschränken, werden photonische Kanäle genutzt. Ein Beispiel ist die Verwendung einzelner Photonen als fliegende Qubits, die Verschränkung zwischen Chips übertragen.
Quantenkommunikationsprotokolle wie das Heralded Entanglement oder Teleportation spielen hier eine Schlüsselrolle:
|\psi\rangle_{AB} = \frac{1}{\sqrt{2}}(|01\rangle + |10\rangle).
Solche Konzepte sind essenziell für skalierbare Quantenrechner.
Skalierungsperspektiven
Moore’s Law für Quantencomputer?
Im klassischen Computing gilt Moore’s Law: Die Zahl der Transistoren auf einem Chip verdoppelt sich etwa alle zwei Jahre. Für Quantencomputer wird diskutiert, ob es eine analoge Wachstumsdynamik gibt.
Einige Trends deuten darauf hin, dass sich die Zahl der Qubits in führenden Plattformen tatsächlich etwa alle 12–24 Monate verdoppelt. IBM, Google und Rigetti veröffentlichen Roadmaps mit exponentiellem Wachstum der Qubit-Anzahl. Ob diese Entwicklung langfristig anhält, ist jedoch offen, da Dekohärenz und Steuerkomplexität mit der Größe steigen.
Herausforderungen bei Kühlung und Verkabelung
Skalierbare Quantenprozessoren erfordern extrem tiefe Temperaturen. Jede Zuleitung vom Raumtemperaturkontroller in den Millikelvin-Bereich trägt Wärme ein und limitiert die mögliche Qubit-Zahl pro Cryostat.
Weitere technische Herausforderungen:
- Crosstalk zwischen Steuerleitungen
- Platzbedarf für Mikrowellenfilter
- Vibrationsisolation der Kühlanlagen
- Verlustarme Verkabelung und Integration von Multiplexing
Diese Faktoren bestimmen maßgeblich, wie schnell und wie groß Rechen-Qubit-Arrays wachsen können.
Beispiele aktueller Roadmaps (IBM, Google, PsiQuantum)
- IBM Quantum Roadmap: Ziel: >4000 Qubits bis 2025 (IBM Condor, IBM Flamingo). Fokus auf Transmon-Qubits mit Oberflächen-Code.
- Google Roadmap: Vision: 1 Million fehlerkorrigierte Qubits bis Ende des Jahrzehnts. Modularer Aufbau und photonische Links.
- PsiQuantum: Photonische Qubit-Plattform, Ziel: 1 Million Qubits mit Silizium-Photonik und Fehlerkorrektur.
Diese Roadmaps zeigen die Ambitionen der Industrie, in den kommenden Jahren aus NISQ-Systemen großskalige, fehlertolerante Rechner zu entwickeln.
Rechen-Qubits in der Praxis
Algorithmen und Anwendungen
Rechen-Qubits entfalten ihre volle Bedeutung durch die Implementierung spezifischer Quantenalgorithmen, die für verschiedene Problemklassen entwickelt wurden.
Quanten-Fourier-Transformation
Die Quanten-Fourier-Transformation (QFT) ist ein zentraler Bestandteil vieler Algorithmen, etwa des Shor-Algorithmus zur Faktorisierung. Sie transformiert einen Quantenzustand nach dem Prinzip der diskreten Fourier-Transformation:
|x\rangle \rightarrow \frac{1}{\sqrt{N}} \sum_{k=0}^{N-1} e^{2\pi i x k / N} |k\rangle.
Die QFT kann effizient in O(n^2) Gate-Operationen für n Qubits implementiert werden – ein entscheidender Vorteil gegenüber klassischen Verfahren.
Anwendungen:
- Faktorisierung großer Zahlen
- Berechnung diskreter Logarithmen
- Phasenschätzung in der Quantenchemie
Grover-Algorithmus
Der Grover-Algorithmus ist ein Suchverfahren für unstrukturierte Datenbanken. Er findet mit nur O(\sqrt{N}) Abfragen einen Eintrag unter N Möglichkeiten, während klassische Methoden O(N) benötigen.
Das Kernprinzip ist die Verstärkung der Wahrscheinlichkeit des gesuchten Zustands durch wiederholte Anwendung des Grover-Operators:
G = (2|\psi\rangle\langle\psi| - I) \cdot (I - 2|x\rangle\langle x|).
Grover eignet sich für:
- Optimierungsprobleme
- Kollisionserkennung in Hash-Funktionen
- Entscheidungsfindung in großen Suchräumen
Variational Quantum Eigensolver (VQE)
Der VQE-Algorithmus adressiert Eigenwertprobleme, z. B. die Energiebestimmung von Molekülen. Das Verfahren kombiniert Quanten- und klassische Optimierung:
- Initialisierung einer parametrisierten Wellenfunktion auf Rechen-Qubits
- Messung der Erwartungswerte des Hamiltonian
- Anpassung der Parameter per klassischem Optimierer
Die Zielgröße lautet:
E(\vec{\theta}) = \langle \psi(\vec{\theta}) | H | \psi(\vec{\theta}) \rangle.
Variational Quantum Eigensolver (VQE) ist robust gegenüber Rauschen und ein wichtiger Algorithmus der NISQ-Ära.
Quantum Machine Learning
Im Quantum Machine Learning (QML) werden Rechen-Qubits genutzt, um neuronale Netze und Klassifikatoren zu erweitern. Beispiele:
- Quantum Support Vector Machines
- Quantum Kernel Estimation
- Quantum Generative Models
Hierbei können bestimmte Matrizenoperationen, wie z. B. lineare Algebra, exponentiell beschleunigt durchgeführt werden.
Software-Stacks und Entwicklungsumgebungen
Für die praktische Arbeit mit Rechen-Qubits existieren leistungsfähige Entwicklungsumgebungen.
Qiskit (IBM)
Qiskit ist das Open-Source-Framework von IBM für Quantenprogrammierung. Es bietet:
- Erstellung von Quanten-Schaltkreisen
- Simulation auf klassischen Rechnern
- Ausführung auf IBM Quantum Hardware
Beispielcode zur Erstellung eines Bell-States:
qc = QuantumCircuit(2) qc.h(0) qc.cx(0,1) qc.measure_all()
Qiskit wird weltweit in Forschung und Lehre eingesetzt.
Cirq (Google)
Cirq ist Googles Framework für die Entwicklung und Simulation von Quantenalgorithmen. Es wurde speziell auf supraleitende Rechen-Qubits zugeschnitten.
Eigenschaften:
- Flexible Definition von Gates
- Einfache Ansteuerung von Sycamore-Systemen
- Integration mit TensorFlow Quantum
Beispiel: Erzeugung eines parametrisierten Gates zur Optimierung:
circuit.append(cirq.rz(np.pi/4).on(qubit))
PyQuil (Rigetti)
PyQuil ist Rigettis Python-Toolkit für Quantenalgorithmen auf der QCS-Plattform. Es nutzt Quil als Zwischensprache.
Features:
- Hybridprogramme mit klassischer Kontrolle
- Zugriff auf Aspen-Prozessoren
- Integration von Noise-Models
PyQuil erlaubt den Bau variationaler Algorithmen und umfangreiche Simulationen.
Benchmarks und Performance-Messung
Wie beurteilt man, ob Rechen-Qubits leistungsfähig sind? Dafür existieren verschiedene Metriken.
Quantum Volume
Quantum Volume quantifiziert die effektive Rechenleistung eines Quantenprozessors. Er berücksichtigt:
- Anzahl der Qubits
- Fehlerraten
- Konnektivität
- Parallelisierbarkeit
IBM definiert Quantum Volume als:
QV = 2^d,
wobei d die größte Problemgröße ist, die noch zuverlässig berechnet werden kann.
Crosstalk und Gate-Fidelity
Crosstalk bezeichnet die ungewollte Wechselwirkung benachbarter Qubits während der Gate-Operationen. Die Gate-Fidelity beschreibt, wie genau eine Operation dem idealen Ziel entspricht.
Mögliche Kennzahlen:
- Ein-Qubit-Fidelity: >99,9 %
- Zwei-Qubit-Fidelity: ~99 %
- Crosstalk-Rate: <1 %
Diese Werte bestimmen die Fehlerkorrektur-Schwelle und die Realisierbarkeit großer Algorithmen.
Metriken der NISQ-Ära
Die NISQ-Ära (Noisy Intermediate-Scale Quantum) ist gekennzeichnet durch:
- 50–500 Qubits
- Fehlertoleranz noch nicht vollständig implementiert
- Algorithmen mit kurzer Tiefe und Fehlerrobustheit
Typische Benchmarks:
- Circuit Depth
- Readout Error
- Fidelity pro Schicht
- Laufzeit des Algorithmus
Diese Parameter helfen, die Fortschritte verschiedener Plattformen objektiv zu vergleichen.
Zukunftsperspektiven
Fehlerkorrektur und Fault-Tolerance
Logische Qubits: Skalierbarkeit durch Redundanz
Damit Rechen-Qubits in großem Maßstab zuverlässig eingesetzt werden können, braucht es umfassende Fehlerkorrekturverfahren. Nur durch die Konstruktion logischer Qubits aus vielen physikalischen Qubits kann die Dekohärenz wirksam unterdrückt werden.
Ein logisches Qubit kann – abhängig vom gewählten Code – aus Dutzenden bis Tausenden physikalischen Qubits bestehen. Der Oberflächen-Code ist aktuell einer der vielversprechendsten Ansätze. Seine zentrale Idee ist, eine zweidimensionale Qubit-Anordnung zu definieren, bei der Fehler durch Messung von Stabilizer-Operatoren erkannt und korrigiert werden, ohne den Quantenzustand selbst direkt zu messen. Die Messoperatoren werden periodisch ausgewertet, sodass Fehler über Zeit rekonstruiert werden können.
Je nach Code gilt:
\text{Fehlerwahrscheinlichkeit}{\text{logisch}} \approx \left(\frac{\epsilon}{\epsilon{\text{th}}}\right)^{d/2},
wobei \epsilon die physikalische Fehlerrate, \epsilon_{\text{th}} die Schwelle des Codes und d die Distanz des Codes ist. Eine kleine physikalische Fehlerrate und ein hoher Codeabstand ermöglichen exponentiell sinkende logische Fehlerwahrscheinlichkeiten.
Topologische Qubits (Kitaev, Majorana-Modell)
Ein alternatives Konzept verfolgt die Topologische Quantenfehlerkorrektur. Topologische Qubits kodieren Information in globalen Eigenschaften des Systems, die unempfindlich gegen lokale Störungen sind.
Kitaevs Toric-Code und das Majorana-Qubit sind die bekanntesten Beispiele. Majorana-Quasiteilchen entstehen in bestimmten supraleitenden Nanostrukturen, bei denen der Zustand in nichtlokalen Paaren gespeichert wird.
Ein Majorana-Zustand wird durch den Austausch der Quasiteilchen manipuliert (Braiding), was als intrinsisch fehlertolerant gilt. Diese „non-Abelian anyons“ könnten langfristig Qubits mit sehr niedriger Fehlerwahrscheinlichkeit ermöglichen.
Physikalisch beschreibt man Majoranas oft als Eigenzustände spezieller Operatoren:
\gamma_j = \gamma_j^\dagger, \quad {\gamma_j, \gamma_k} = 2\delta_{jk}.
Obwohl erste experimentelle Hinweise gefunden wurden, sind topologische Qubits noch nicht industriell einsatzfähig.
Rechen-Qubits jenseits des NISQ-Limits
Roadmaps zum millionenfachen Qubit-Computing
Die aktuellen NISQ-Systeme sind auf wenige Hundert Qubits beschränkt. Langfristig werden fehlertolerante Systeme mit Millionen Rechen-Qubits angestrebt. Führende Roadmaps:
- IBM: Skalierung auf >1 Million Qubits in den 2030er Jahren durch Oberflächen-Code und modulare Transmon-Arrays.
- Google: Modularisierung und photonische Vernetzung mehrerer supraleitender Chips.
- PsiQuantum: Einsatz photonischer Qubits in Silizium-Photonik, um sehr große Arrays zu realisieren.
Die Herausforderung liegt dabei nicht nur in der Erhöhung der Qubit-Zahl, sondern auch in der Reduktion der Fehler und der Beherrschung der Komplexität von Kühlung, Steuerung und Fehlerkorrektur.
Anwendungen in Chemie, Materialwissenschaft, Kryptographie
Mit einer großen Zahl fehlerkorrigierter Rechen-Qubits werden völlig neue Anwendungen möglich:
- Quantenchemie: Simulation komplexer Moleküle (z. B. Katalysatoren, Medikamente)
- Materialwissenschaft: Entdeckung neuer Festkörperphasen oder supraleitender Materialien
- Kryptographie: Brechen klassischer Public-Key-Kryptosysteme (RSA, ECC) mit dem Shor-Algorithmus
Die Fortschritte in der Rechenleistung werden deshalb nicht nur wissenschaftliche Probleme lösen, sondern auch enorme Auswirkungen auf Sicherheit und Wirtschaft haben.
Interdisziplinäre Forschungstrends
Integration von KI und Quantenhardware
Künstliche Intelligenz wird zunehmend genutzt, um Quantenhardware effizienter zu steuern und zu kalibrieren:
- Adaptive Regelung von Pulsfolgen
- Optimierung von Qubit-Zuständen durch Reinforcement Learning
- Anomalieerkennung bei Fehlersyndromen
Gleichzeitig untersucht man, wie Quantenalgorithmen das Training großer KI-Modelle beschleunigen könnten, z. B. durch schnelle lineare Algebra und Sampling.
Ein Beispiel: Variational Quantum Classifier, der auf Rechen-Qubits parametrisiert wird und Klassifikationsaufgaben löst.
Hybridrechner und Quantenbeschleuniger
Statt Quantencomputer isoliert zu betrachten, werden zunehmend hybride Architekturen entwickelt:
- Klassische CPUs/GPUs für Pre- und Postprocessing
- Quantenbeschleuniger (Quantum Processing Units, QPUs) für spezifische Rechenoperationen
Diese Integration ermöglicht Workflows, bei denen nur die wirklich quantenkritischen Teile auf Rechen-Qubits ausgelagert werden, während der Rest klassisch verarbeitet wird.
Solche Hybridmodelle sind realistisch die ersten Systeme, die in industriellen Anwendungen echten Mehrwert bringen.
Fazit
Zusammenfassung der Rolle von Rechen-Qubits
Rechen-Qubits sind das zentrale Element jedes Quantencomputers. Ohne sie wäre weder die Superposition noch die Verschränkung in der Informationsverarbeitung realisierbar. Während Speicher-Qubits primär als Puffer fungieren und Transfer-Qubits den Transport von Quantenzuständen ermöglichen, sind Rechen-Qubits die eigentlichen Träger der aktiven Rechenoperationen: Sie erzeugen Logikgatter, implementieren Algorithmen und bilden die Grundlage für die Leistungsfähigkeit des Gesamtsystems.
Ihre physikalische Vielfalt – von supraleitenden Transmonen über gefangene Ionen bis hin zu Spins und Photonen – hat in den letzten zwei Jahrzehnten zu einer beeindruckenden Bandbreite technischer Plattformen geführt. Jede verfolgt spezifische Optimierungsziele: Stabilität, Geschwindigkeit, Skalierbarkeit oder Integrationsfähigkeit mit bestehenden Technologien.
In allen Varianten gilt: Je höher die Kohärenzzeit, die Gate-Fidelity und die Konnektivität der Rechen-Qubits, desto mächtiger ist das Potenzial der Plattform. Die zentralen Fortschritte der letzten Jahre zeigen, dass sich die Fehlerraten stetig verringern, während sich die Zahl kontrollierbarer Qubits kontinuierlich vergrößert.
Bedeutung für die technologische Zukunft
Rechen-Qubits sind keine reine Grundlagenforschung mehr – sie sind in den letzten Jahren in die Phase industrieller Entwicklung und Kommerzialisierung eingetreten. Unternehmen wie IBM, Google, Intel, IonQ, Honeywell/Quantinuum und PsiQuantum investieren Milliardenbeträge in die Skalierung ihrer Architekturen.
In der technologischen Zukunft werden Rechen-Qubits einen disruptiven Einfluss auf viele Sektoren entfalten:
- Chemie und Materialwissenschaft: Durch präzise Quantensimulationen können neue Medikamente, Katalysatoren und Materialien entdeckt werden, die mit klassischen Computern unerreichbar wären.
- Optimierung und Logistik: Komplexe kombinatorische Probleme in Energieversorgung, Verkehrsplanung und Lieferketten lassen sich effizienter lösen.
- Kryptographie: Viele heutige Verschlüsselungsverfahren basieren auf Problemen, die Quantencomputer mit Rechen-Qubits schneller lösen können, was völlig neue Sicherheitsparadigmen erforderlich macht.
Die Leistungsfähigkeit künftiger Quantenrechner wird wesentlich davon abhängen, wie effizient Rechen-Qubits fehlerkorrigiert und millionenfach skalierbar gemacht werden.
Einschätzung der nächsten Innovationssprünge
Aus heutiger Sicht sind mehrere große Sprünge in den nächsten Jahren wahrscheinlich:
- Fehlerkorrigierte Logikqubits: Der Übergang von NISQ-Systemen zu fehlertoleranten Clustern wird den Sprung in die industrielle Nutzung ermöglichen. Hierzu sind Redundanzfaktoren von 1:1000 physikalische Qubits je logischem Qubit zu erwarten.
- Photonische und topologische Qubits: Wenn Projekte wie PsiQuantum oder die Majorana-Experimente erfolgreich sind, könnten Plattformen entstehen, die Hardware-intrinsisch fehlertolerant sind.
- Hybride Architekturen: Die Kombination klassischer Hochleistungsrechner mit Quantenbeschleunigern wird wahrscheinlich der erste praktische Einsatzweg großskaliger Rechen-Qubit-Arrays sein.
- Software-Ökosysteme: Entwicklungsumgebungen wie Qiskit, Cirq und PyQuil werden durch KI-gestützte Optimierung und höhere Abstraktionsebenen neue Anwendergruppen erschließen.
Insgesamt steht die Technologie heute an einem Punkt, der dem Übergang der klassischen Computer aus Forschungslabors in industrielle Fertigung in den 1950er-Jahren ähnelt. Rechen-Qubits sind die Basis dieser Revolution – ihr Potenzial wird die Informatik nachhaltig verändern.
Mit freundlichen Grüßen
Anhang
Die nachfolgenden Ressourcen sind sorgfältig nach ihrer Bedeutung für die physikalische Realisierung, Softwareentwicklung, Skalierung und Fehlerkorrektur von Rechen-Qubits ausgewählt. Neben den direkten Links findest du Hinweise zu Schwerpunkten, Forschungsrichtungen und besonderen Beiträgen der jeweiligen Institutionen.
Supraleitende Rechen-Qubits
IBM Quantum
IBM gilt als Pionier in der Kommerzialisierung supraleitender Transmon-Architekturen. Das Unternehmen hat als erstes öffentlich zugängliche Quantencomputer via Cloud bereitgestellt. Besonderes Augenmerk liegt auf Oberflächen-Codes und Roadmaps zu fehlertoleranten Quantenprozessoren (IBM Condor, IBM Flamingo).
- Website https://www.ibm.com/quantum-computing/
- Wichtige Beiträge
- Einführung des Quantum Volume als Benchmark
- Entwicklung von Qiskit als Software-Stack
- Regelmäßige Veröffentlichung technologischer Roadmaps
Google Quantum AI
Die Quantum AI-Abteilung von Google ist durch das Sycamore-Projekt bekannt geworden, mit dem 2019 erstmals die sogenannte „Quantum Supremacy“ demonstriert wurde. Der Fokus liegt auf der Skalierung supraleitender Rechen-Qubits und der Modularisierung durch photonische Verbindungen.
- Website https://quantumai.google/
- Forschungsschwerpunkte
- Hochskalierbare Transmon-Arrays
- Fehlerkorrektur mit Oberflächen-Codes
- Entwicklung von Cirq als Programmierframework
Rigetti Computing
Rigetti verfolgt ebenfalls supraleitende Architekturen, legt den Fokus aber stärker auf modulare Quantenprozessoren (QCS) mit der Aspen-Serie. Rigetti entwickelt die Quil-Zwischensprache und PyQuil.
- Website https://www.rigetti.com/
- Besonderheit
- Integration der Cloud-Plattform Forest
- Ansatz zur Kombination klassischer und Quanten-Ressourcen
Ionenfallen-Rechen-Qubits
IonQ
IonQ ist führend in der Entwicklung Ionenfallen-basierter Quantencomputer mit hoher Kohärenzzeit und Gate-Fidelity (>99,9 %). Die Plattform nutzt Ytterbium-Ionen und stellt über Cloudanbieter wie Amazon Braket Systeme bereit.
- Website https://ionq.com/
- Forschungsschwerpunkte
- Skalierung segmentierter Ionenfallen
- Verbesserung der Laserpräzision und Stabilisierung
Quantinuum (Honeywell)
Quantinuum entstand aus Honeywells Quantenabteilung und Cambridge Quantum. Das Unternehmen verfolgt modulare Ionenfallen-Architekturen mit einer hohen Konnektivität und entwickelt die Softwareplattform „TKET“.
- Website https://www.honeywell.com/us/en/company/quantum
- Besonderheit
- Fokus auf industrielle Anwendungen (Chemie, Sicherheit)
- Enge Integration von Hardware und Software
Photonische Rechen-Qubits
PsiQuantum
PsiQuantum entwickelt photonische Quantencomputer auf Basis von Silizium-Photonik, die perspektivisch auf Millionen fehlertoleranter Qubits skalieren sollen. Das Unternehmen arbeitet mit GlobalFoundries zusammen, um Halbleiterfertigung für Quantenchips zu nutzen.
- Website https://psiquantum.com/
- Schwerpunkt
- Herstellung fehlertoleranter Photonen-Qubits
- Entwicklung eines skalierbaren Architektur-Frameworks
Forschungszentren und akademische Beiträge
Yale Quantum Institute
Die Yale University hat Pionierarbeit bei der Entwicklung des Transmon-Qubits geleistet (u. a. Michel Devoret, Robert Schoelkopf). Das Institut gilt als eine der führenden akademischen Einrichtungen für supraleitende Qubit-Forschung.
- Website https://quantum.yale.edu/
University of California, Berkeley
Am Berkeley Center for Quantum Computation and Communication Technology wurden wesentliche Fortschritte zu Flux- und Charge-Qubits erzielt. John Clarke gehört zu den prägenden Figuren der frühen supraleitenden Qubit-Entwicklung.
- Website https://quantum.berkeley.edu/
QuTech (TU Delft)
QuTech in den Niederlanden forscht an supraleitenden und spinbasierten Rechen-Qubits. Hier liegt ein Fokus auf Fehlertoleranz und Topologie (u. a. Majorana-Qubits).
- Website https://qutech.nl/
Microsoft Quantum
Microsoft verfolgt insbesondere die Topologische Quantencomputing-Strategie mit Majorana-Zuständen (Kitaev-Modell). Obwohl der experimentelle Nachweis noch nicht vollständig gelungen ist, gilt dieser Ansatz als vielversprechend für langfristig fehlertolerante Qubits.
Persönlichkeiten und prägende Theoretiker
Alexei Kitaev
Kitaev entwickelte die theoretische Grundlage des Topologischen Quantencomputings und den Toric-Code. Seine Arbeiten sind Basis des Majorana-Qubit-Konzepts.
- Profil und Veröffentlichungen https://www.theory.caltech.edu/people/kitaev
John Martinis
Ehemaliger Leiter der Google Quantum Hardware Group. Er leitete das Team, das den Sycamore-Prozessor entwickelte.
- Profil bei UCSB https://web.physics.ucsb.edu/~martinisgroup/
Michel Devoret
Pionier der supraleitenden Qubits und maßgeblich an der Entwicklung des Transmon beteiligt.
- Profil Yale University https://devoret.yale.edu/
Software-Frameworks
Qiskit
IBM-Open-Source-Framework für Rechen-Qubit-Programmierung und Simulation.
- Website https://qiskit.org/
Cirq
Google-Toolkit für die Entwicklung auf supraleitenden Systemen.
- Website https://quantumai.google/cirq
PyQuil
Rigetti-Toolkit für Quil-Programme auf der Aspen-Architektur.
- Website https://pyquil-docs.rigetti.com/
Hinweise zur Nutzung
Diese Links bieten Zugang zu:
- Primärquellen der Forschung
- Open-Source-Software
- Roadmaps der führenden Quantenunternehmen
- Veröffentlichungen der prägenden Wissenschaftler
Wer sich tiefer mit Rechen-Qubits befasst, sollte insbesondere die Publikationen in Nature, Science, Physical Review X und auf arXiv.org verfolgen. Dort werden viele technische Details und neue Experimente zuerst veröffentlicht.