Physikalische Qubits bezeichnen die konkrete physikalische Realisierung eines quantenmechanischen Zweizustandssystems, das als Informationsträger im Quantencomputing dient. Im Gegensatz zur abstrakten mathematischen Beschreibung eines Qubits – als Vektor im komplexen Hilbertraum – ist der physikalische Qubit ein reales, kontrollierbares Quantensystem, dessen Zustände präpariert, manipuliert und gemessen werden können.

Ein Qubit unterscheidet sich grundlegend vom klassischen Bit, da es nicht nur die Zustände |0\rangle und |1\rangle einnehmen kann, sondern auch beliebige Überlagerungen dieser Basiszustände – sogenannte Superpositionen:

|\psi\rangle = \alpha |0\rangle + \beta |1\rangle,\quad \text{mit} \quad |\alpha|^2 + |\beta|^2 = 1

Dabei repräsentieren \alpha und \beta komplexe Amplituden, die im physikalischen Qubit durch messbare Eigenschaften wie Energie, Spin, Polarisationszustand oder quantisierte Ladung realisiert werden.

Abgrenzung zu „logischen Qubits

Ein logischer Qubit ist ein abstrakter, fehlerkorrigierter Qubit, der aus vielen physikalischen Qubits zusammengesetzt wird. Er dient dazu, Quanteninformationen robust gegen Fehler zu speichern und zu verarbeiten. Der logische Qubit entsteht durch Quanten-Fehlerkorrekturcodes wie den Shor-Code, Steane-Code oder Surface-Code. Typischerweise benötigt ein einziger logischer Qubit mindestens 9 bis über 1000 physikalische Qubits – abhängig vom verwendeten Fehlerkorrekturschema und den Fehlerraten der zugrunde liegenden Hardware.

Physikalische Qubits sind somit die fundamentale Ressource, auf der alle höheren Quanteninformationsprozesse beruhen. Ohne sie ist keine Implementierung logischer Qubits oder komplexer Quantenalgorithmen möglich. Daher steht das Design, die Kontrolle und das Verständnis physikalischer Qubits im Zentrum der experimentellen Quanteninformationswissenschaft.

Bedeutung des Begriffs im Kontext der Quanteninformationsverarbeitung

In der heutigen Quantenforschung ist der Begriff „physikalischer Qubit“ nicht nur eine technische Referenz auf die Hardwareimplementierung eines Qubits, sondern auch ein zentrales Kriterium zur Bewertung der Leistungsfähigkeit und Reife eines Quantencomputers. Aspekte wie Kohärenzzeit, Gate-Treue, Messgenauigkeit und Skalierbarkeit sind unmittelbar an die physikalische Natur des Qubits gekoppelt.

Daher gilt: Je besser ein physikalischer Qubit realisiert ist, desto größer sind die Chancen, Quantencomputing aus dem Labor in die industrielle Realität zu überführen – etwa für Anwendungen in der Materialforschung, Kryptographie, Klimasimulation oder Medizin.

Historische Entwicklung

Erste physikalische Realisierungen (z. B. Ionenfallen in den 1990ern)

Die ersten ernstzunehmenden Versuche zur physischen Realisierung von Qubits begannen in den frühen 1990er-Jahren – insbesondere im Bereich der Ionenfallen. Die wegweisende Arbeit von Ignacio Cirac und Peter Zoller (1995) zur Realisierung eines universellen Quantencomputers mit gespeicherten Ionen markierte einen Wendepunkt. Ihre Idee war es, einzelne Ionen in einer elektromagnetischen Falle zu speichern, ihre internen Zustände als Qubit-Zustände zu verwenden und mithilfe von Laserpulsen kontrollierte Wechselwirkungen zu ermöglichen.

Parallel dazu entstanden erste Realisierungen auf Basis supraleitender Josephson-Kontakte, etwa durch die Gruppen von Yasunobu Nakamura (NEC, Japan, 1999) und John Martinis (UCSB, später Google).

Diese Entwicklungen zeigten erstmals, dass die fundamentalen Operationen eines Quantencomputers – Zustandserzeugung, Gattermanipulation und Messung – mit realen physikalischen Systemen durchführbar sind.

Meilensteine (IBM Transmon-Qubit, Google Sycamore, u.a.)

Ein bedeutender Fortschritt wurde 2007 mit der Entwicklung des Transmon-Qubits erreicht – einer verbesserten Variante des charge-basierten Josephson-Qubits, die robuster gegen elektrische Rauschquellen ist. Dieser Qubit-Typ ist heute der Standard in vielen supraleitenden Plattformen (z. B. bei IBM, Rigetti, Amazon Braket).

Ein weiterer Meilenstein war das „Quantum Supremacy“-Experiment von Google (2019), bei dem ein supraleitender Quantenprozessor mit 53 Qubits – genannt Sycamore – eine Aufgabe schneller löste als der leistungsstärkste klassische Supercomputer. Dieses Ereignis markierte den global sichtbaren Übergang vom theoretischen Konzept zur praktischen Machbarkeit komplexer Quantenberechnungen.

Weitere relevante Entwicklungen umfassen:

  • IonQ und Quantinuum mit kommerziellen Ionenfallenprozessoren
  • PsiQuantum, das photonische Qubits für skalierbare Systeme nutzt
  • D-Wave, das Qubits für Quantenannealing implementiert (nicht gate-basiert)

Zielsetzung des Artikels

Dieser Artikel verfolgt das Ziel, ein präzises, umfassendes und wissenschaftlich fundiertes Verständnis physikalischer Qubits zu vermitteln – von ihrer theoretischen Definition bis hin zu ihrer technischen Umsetzung in aktuellen Quantenprozessoren. Dabei sollen insbesondere folgende Fragestellungen beleuchtet werden:

  • Welche quantenmechanischen Prinzipien liegen physikalischen Qubits zugrunde?
  • Welche Arten physikalischer Qubits gibt es, und wie funktionieren sie?
  • Wie werden physikalische Qubits kontrolliert, manipuliert und gemessen?
  • Welche Herausforderungen bestehen bei Skalierung und Fehlertoleranz?
  • Welche Plattformen dominieren gegenwärtig in Forschung und Industrie?

Zielgruppe sind fortgeschrittene Leserinnen und Leser mit Interesse an Quantenphysik, Ingenieurwissenschaften, Informatik oder technologischer Entwicklung im Kontext von Quantencomputing. Der Artikel legt besonderen Wert auf technische Tiefe, systematische Gliederung, klar definierte Begriffe und aktuelle Forschungsbezüge.

In den folgenden Kapiteln wird der Begriff des physikalischen Qubits Schicht für Schicht entfaltet – angefangen bei den quantenphysikalischen Grundlagen bis hin zu den technologischen Perspektiven einer global vernetzten Quanteninfrastruktur.

Quantenphysikalische Grundlagen physikalischer Qubits

Das Qubit als quantenmechanisches Zweizustandssystem

Darstellung im Hilbertraum

Ein physikalischer Qubit ist ein realisiertes quantenmechanisches Zweizustandssystem. Mathematisch wird er als normierter Zustandsvektor in einem zweidimensionalen komplexen Hilbertraum \mathcal{H}_2 beschrieben:

|\psi\rangle = \alpha |0\rangle + \beta |1\rangle,\quad \text{mit} \quad \alpha, \beta \in \mathbb{C},\quad |\alpha|^2 + |\beta|^2 = 1

Die Basiszustände |0\rangle und |1\rangle können je nach physikalischer Implementierung unterschiedlichen physikalischen Eigenschaften entsprechen, etwa:

  • dem Spin-Zustand eines Elektrons (|\uparrow\rangle, |\downarrow\rangle)
  • der Polarisationsrichtung eines Photons (horizontal vs. vertikal)
  • zwei Energieniveaus eines supraleitenden Oszillators

Die Normierung des Zustandsvektors gewährleistet die Wahrscheinlichkeitsinterpretation der Quantenmechanik: Bei einer Messung ergibt sich mit Wahrscheinlichkeit |\alpha|^2 das Ergebnis 0 und mit |\beta|^2 das Ergebnis 1.

Bloch-Kugel-Visualisierung

Zur Veranschaulichung des Qubit-Zustandsraums dient die sogenannte Bloch-Kugel – eine geometrische Repräsentation, die den abstrakten Zustandsvektor |\psi\rangle auf einem Punkt auf der Oberfläche einer Einheitssphäre im dreidimensionalen Raum abbildet:

|\psi\rangle = \cos\left(\frac{\theta}{2}\right) |0\rangle + e^{i\phi} \sin\left(\frac{\theta}{2}\right) |1\rangle

Dabei sind:

  • \theta: Polarwinkel (0 bis \pi)
  • \phi: Azimutwinkel (0 bis 2\pi)

Die Nord- und Südpolpositionen repräsentieren die Basiszustände |0\rangle und |1\rangle, während Punkte auf dem Äquator reine Superpositionen mit maximaler Kohärenz darstellen. Die Bloch-Kugel ist ein zentrales Hilfsmittel in der Kontrolle und Visualisierung von Qubit-Manipulationen.

Superposition, Phaseninformation und kohärente Entwicklung

Mathematische Beschreibung mittels Zustandsvektoren und Dichtematrizen

Die zentrale Eigenschaft von Qubits – und damit physikalischer Qubits – ist ihre Fähigkeit zur Superposition. Ein Qubit kann gleichzeitig in mehreren Zuständen „existieren“, bis eine Messung erfolgt. Diese Superposition ist jedoch nicht bloß ein gleichzeitiges Vorhandensein klassischer Alternativen, sondern eine kohärente Überlagerung, die Interferenzeffekte erlaubt.

Die zeitliche Entwicklung eines isolierten Qubit-Zustands erfolgt gemäß der Schrödingergleichung:

i \hbar \frac{d}{dt} |\psi(t)\rangle = \hat{H} |\psi(t)\rangle

wobei \hat{H} der Hamiltonoperator des Systems ist.

Zur Beschreibung offener Qubit-Systeme, die mit ihrer Umgebung wechselwirken (z. B. durch Rauschen), verwendet man die Dichtematrix \rho, deren zeitliche Entwicklung durch die Lindblad-Mastergleichung beschrieben wird:

\frac{d\rho}{dt} = -\frac{i}{\hbar}[\hat{H}, \rho] + \sum_k \left( \hat{L}_k \rho \hat{L}_k^\dagger - \frac{1}{2} { \hat{L}_k^\dagger \hat{L}_k, \rho } \right)

Hier stehen die Operatoren \hat{L}_k für die Kopplung an dissipative Prozesse wie Relaxation und Dephasierung.

Besonders kritisch ist die Erhaltung der Phaseninformation, also der relativen Phase zwischen \alpha und \beta, denn sie trägt die quantenmechanische Interferenzfähigkeit – Grundlage aller Quantenalgorithmen.

Quantenverschränkung zwischen physikalischen Qubits

Eine der nichtklassischen Eigenschaften physikalischer Qubits ist die Möglichkeit zur Verschränkung: Zustände mehrerer Qubits können so miteinander korreliert sein, dass der Gesamtzustand nicht als Produkt einzelner Zustände geschrieben werden kann.

Ein prototypisches Beispiel ist das EPR-Paar (nach Einstein-Podolsky-Rosen), etwa im Bell-Zustand:

|\Phi^+\rangle = \frac{1}{\sqrt{2}}(|00\rangle + |11\rangle)

Dieser Zustand ist maximal verschränkt – eine Messung an einem der beiden Qubits legt den Zustand des anderen instantan fest, unabhängig von der Distanz zwischen den Qubits. Weitere prominente verschränkte Zustände sind:

  • Bell-Zustände: Vier orthogonale Zweiqubit-Zustände
  • GHZ-Zustände: Dreiqubit-Verschränkungen, z. B. \frac{1}{\sqrt{2}}(|000\rangle + |111\rangle)
  • Cluster-Zustände: Grundlage für messungsbasierte Quantencomputer

In physikalischer Hinsicht ist die Erzeugung und Kontrolle verschränkter Zustände ein Maßstab für die Qualität von Qubit-Architekturen – insbesondere bei Gate-Operationen wie dem Controlled-NOT-Gate (CNOT).

Dekohärenz und deren physikalische Ursachen

Kopplung an Umwelt, thermische Fluktuationen, 1/f-Rauschen

Dekohärenz ist der zentrale Feind des physikalischen Qubits. Sie beschreibt den Verlust quantenmechanischer Kohärenz durch unkontrollierte Wechselwirkung mit der Umgebung – z. B. durch thermische Störungen, elektromagnetisches Rauschen, atomare Defekte oder Fluktuationen im Substrat.

Typische Dekohärenzquellen:

  • Thermische Fluktuationen: Anregung des Qubits durch Wärme
  • 1/f-Rauschen: Spektrales Rauschen, typisch bei supraleitenden Qubits
  • Zwei-Niveau-Systeme (TLS): Strukturelle Defekte im Substrat
  • Photonische Leckage: Verlust von Energie an Resonatoren

Diese Kopplung transformiert reine Zustände in gemischte Zustände und reduziert die Interferenzfähigkeit des Systems – ein Effekt, der mit wachsender Qubit-Zahl zunehmend gravierend wird.

T₁- und T₂-Zeiten

Die Qualität eines physikalischen Qubits wird häufig durch zwei Zeitskalen beschrieben:

  • T₁ (Relaxationszeit): Zeit, bis ein angeregter Zustand |1\rangle in den Grundzustand |0\rangle relaxiert. Ursache: Energieverlust an die Umgebung.
  • T₂ (Dephasierungszeit): Zeit, in der die Phasenbeziehung in einer Superposition \alpha|0\rangle + \beta|1\rangle kohärent bleibt. Sie ist immer kleiner oder gleich T₁.

Zusätzlich wird die sogenannte „kohärente Lebensdauer“ oft durch die Formel beschrieben:

\frac{1}{T_2} = \frac{1}{2T_1} + \frac{1}{T_\phi}

wobei T_\phi die reine Dephasierungszeit ist.

Ein modernes, gut konstruiertes physikalisches Qubitsystem erreicht heute typischerweise:

  • T₁-Zeiten von 50–200 µs (supraleitend) bzw. >1 s (Ionenfallen)
  • Gate-Treue von >99,9 %
  • Messzeiten im Bereich weniger Mikrosekunden

Diese Parameter sind entscheidend für die Fehlerkorrektur, die Skalierung und letztlich für die Funktionalität eines jeden Quantencomputers.

Physikalische Implementierungen: Übersicht und Details

Supraleitende Qubits

Transmon-Qubits: Architektur und Funktionsprinzip

Der Transmon-Qubit ist aktuell der am weitesten verbreitete supraleitende Qubit-Typ und bildet das Rückgrat vieler industrieller Quantenprozessoren, etwa von IBM, Google und Rigetti. Er basiert auf einem nichtlinearen Oszillator, bestehend aus einem Josephson-Junction (eine schwach gekoppelte supraleitende Verbindung) und einem Kapazitätselement.

Der Hamiltonoperator eines Transmon-Qubits ist gegeben durch:

\hat{H} = 4E_C(\hat{n} - n_g)^2 - E_J \cos(\hat{\phi})

mit:

  • E_C: Ladungsenergie (Kapazitätsbeitrag)
  • E_J: Josephson-Energie
  • \hat{n}: Anzahl an Cooperpaaren
  • \hat{\phi}: Phasenunterschied zwischen den Supraleitern

Im Transmon-Regime gilt E_J \gg E_C, wodurch sich die Empfindlichkeit gegenüber Ladungsrauschen drastisch reduziert. Das ermöglicht längere Kohärenzzeiten und robustere Steuerbarkeit.

Die Zustände |0\rangle und |1\rangle entsprechen zwei diskreten Energieniveaus in einem anharmonischen Potentialtopf, das durch den Josephson-Term erzeugt wird. Manipulation erfolgt durch Mikrowellenpulse im GHz-Bereich.

Flux-, Charge- und Phase-Qubits im Vergleich

Frühere supraleitende Qubits lassen sich grob in drei Klassen einteilen:

  • Charge-Qubits: Empfindlich gegenüber Ladungsrauschen, kurze T₂-Zeiten
  • Flux-Qubits: Magnetische Flüsse als Zustände, empfindlich gegenüber Flux-Rauschen
  • Phase-Qubits: Phasenverhältnisse dominierend, hohe Gate-Frequenzen, aber instabil

Der Transmon ist gewissermaßen ein optimierter Charge-Qubit im Bereich hoher Josephson-Kopplung. Auch Fluxonium-Qubits, eine Mischung aus Transmon- und Flux-Qubits mit hohem T₂, werden derzeit aktiv erforscht.

Materialwissenschaftliche Herausforderungen (z. B. Josephson-Kontakte)

Trotz aller Fortschritte stellen Materialien die zentrale Hürde dar. Problematisch sind insbesondere:

  • Two-Level-Systems (TLS) in amorphen Oxiden, die Dekohärenz verursachen
  • Grenzflächenrauschen zwischen Supraleiter und Substrat
  • Verlustarme Dielektrika, die unerlässlich für lange T₁-Zeiten sind

Auch die präzise Lithographie und das Packaging bei Millikelvin-Temperaturen erfordern höchste technische Expertise. Fortschritte in der Dünnfilmtechnologie und kryogenen Signalverarbeitung sind hier entscheidend.

Ionenfallen-Qubits

Hyperfeinstrukturzustände als Qubit-Zustände

Bei Ionenfallen-Qubits werden elektrisch geladene Atome (meist Ytterbium oder Kalzium) in einer radiofrequenten Falle (Paul-Falle) immobilisiert. Die beiden Qubit-Zustände sind durch zwei langlebige Hyperfein- oder Zeeman-Niveaus definiert:

|0\rangle = |F = 0, m_F = 0\rangle,\quad |1\rangle = |F = 1, m_F = 0\rangle

Diese Zustände sind besonders störfest, da sie magnetisch entkoppelt sind (Clock-Transitions). Sie ermöglichen extrem lange Kohärenzzeiten im Sekundenbereich.

Laserkühlung, RF-Potentiale und Einzelqubit-Gates

Die Ionen werden mittels Doppler- und Seitenbandkühlung in den quantenmechanischen Grundzustand ihres Gitterplatzes gebracht. Die Manipulation einzelner Qubits erfolgt über hochpräzise fokussierte Laserpulse (z. B. π-Pulse für Flip-Gates).

Zwei-Qubit-Gatter nutzen die kollektiven Vibrationsmoden der Ionen in der Falle, die als Bus für Verschränkung dienen – realisiert z. B. durch Mølmer-Sørensen-Gatter.

Skalierung und Gitterarchitekturen

Ein Nachteil klassischer Ionenfallen ist der begrenzte Platz: Ab etwa 50 Ionen treten Modenkopplungen und spektrale Überlappung auf. Skalierbarkeit wird heute über:

  • Segmentierte Fallenarchitekturen,
  • Verbundene 2D-Chips oder
  • Photonenvermittelten Qubit-Austausch

ermöglicht. Quantinuum verfolgt derzeit hybride Architekturen mit modularem Aufbau.

Festkörperbasierte Qubits

Quantenpunkte in III-V-Halbleitern

Quantenpunkte sind nanoskalige Halbleiterinseln, in denen einzelne Elektronen durch elektrostatisches Tuning eingefangen werden. Die Zustände basieren meist auf Spin-Up/Spin-Down:

|0\rangle = |\uparrow\rangle,\quad |1\rangle = |\downarrow\rangle

Manipulation erfolgt per ESR (Electron Spin Resonance) oder durch elektrische Spin-Manipulation via Spin-Orbit-Kopplung.

Donor-Qubits in Silizium

Ein alternativer Ansatz ist die gezielte Dotierung von Silizium mit Phosphor. Der Kernspin des Phosphoratoms (z. B. I = 1/2) oder der gebundene Elektronenspin fungieren als Qubit.

Die hohe Materialreinheit von Silizium erlaubt extrem lange Kohärenzzeiten. Australische Forschungsgruppen (z. B. UNSW) führen hier die Entwicklung.

NV-Zentren in Diamant: Vorteile und Limitierungen

Ein NV-Zentrum (Stickstoff-Fehlstelle) ist ein Punktdefekt im Diamantgitter mit elektronischen Zuständen, die optisch adressierbar und manipuliert sind.

Vorteile:

  • Raumtemperaturbetrieb möglich
  • Gute Integration in biologische Systeme

Nachteile:

  • Schwierige Skalierung
  • Störanfälligkeit gegenüber Kristalldefekten

Photonenbasierte Qubits

Kodierung in Polarisation, Zeit-bin oder Pfad

Photonische Qubits nutzen Zustände des Lichts:

  • Polarisation (|H\rangle, |V\rangle)
  • Zeit-bin-Codierung
  • Pfadinterferenz

Sie sind ideal für Quantenkommunikation, da sie nicht mit Umgebung koppeln – aber schwer zu manipulieren sind.

Quellen und Detektoren

Anforderungen:

  • Einzelphotonenquellen: z. B. Quantenpunkte oder parametrische Verstärkung
  • Hocheffiziente Detektoren: Superconducting Nanowire Single-Photon Detectors (SNSPD)

Lineare Optik und Boson Sampling

Linear Optical Quantum Computing (LOQC) basiert auf Interferenz, Messung und Feedforward. Trotz fehlender deterministischer Gates lässt sich Universalität erreichen.

Boson Sampling demonstriert quantenmechanische Suprematie durch schwer simulierbare photonische Interferenzen – ein vielversprechender Bereich jenseits klassischer Rechner.

Atomare und molekulare Qubits

Rydberg-Atome und deren kontrollierte Wechselwirkungen

Rydberg-Qubits nutzen Atome in hoch angeregten Zuständen mit extrem großen Dipolmomenten. Diese erlauben starke, langreichweitige Wechselwirkungen – perfekt für Gatteroperationen.

Rydberg-Gitter sind skalierbar, in 2D und 3D realisierbar, z. B. mit optischen Pinzetten.

Ultrakalte Gase in optischen Gittern

In optischen Gittern können bosonische oder fermionische Atome in präzisen 2D-/3D-Strukturen eingefangen werden. Die Zustände basieren auf internen Freiheitsgraden (z. B. Spin), während die Gittersymmetrie Gatterverhalten beeinflusst.

Hierüber lassen sich quantensimulierte Materialien, Topologieeffekte und sogar Gatteroperationen realisieren.

Physikalische Qubits und die DiVincenzo-Kriterien

Überblick über die sechs Kriterien

Im Jahr 2000 formulierte der theoretische Physiker David P. DiVincenzo sechs essenzielle Bedingungen, die eine physikalische Plattform erfüllen muss, um als geeignete Basis für einen skalierbaren, universellen Quantencomputer zu gelten. Diese Kriterien stellen bis heute eine zentrale Referenz für die Bewertung und Entwicklung von Quantenhardware dar.

Die sechs DiVincenzo-Kriterien lauten:

  1. Ein skalierbares System aus wohldefinierten Qubits
  2. Möglichkeit zur Initialisierung der Qubits in einen bekannten Zustand
  3. Lange Kohärenzzeiten im Vergleich zur Gatterbetriebsdauer
  4. Existenz eines universellen Satzes quantenlogischer Gatter
  5. Qubit-spezifische Messbarkeit
  6. (Optional, aber essenziell für Kommunikation:) Möglichkeit zur Übertragung von Qubits zwischen verschiedenen Orten

Diese Kriterien sind unabhängig vom verwendeten physikalischen Substrat – sie definieren grundlegende funktionale Anforderungen an jede Quantenhardware.

Bewertung physikalischer Qubits anhand dieser Kriterien

Initialisierbarkeit

Ein physikalisches Qubit muss effizient in einen definierten Startzustand gebracht werden können – meist |0\rangle oder ein äquivalenter Basiszustand.

Beispielhafte Umsetzungen:
  • Supraleitende Qubits: Relaxation in den Grundzustand durch passives Warten (T₁-Zeit) oder Reset mittels „active qubit reset“ mit Mikrowellen
  • Ionenfallen: Optisches Pumpen in den Hyperfein-Grundzustand
  • NV-Zentren: Polarisation durch Laserbestrahlung bei 532 nm

Je schneller und fehlerfreier die Initialisierung erfolgt, desto effizienter lassen sich große Schaltkreise realisieren. In aktuellen Systemen liegt die Reset-Treue meist bei über 99 %.

Kohärenzzeit

Ein physikalischer Qubit muss für eine ausreichende Dauer kohärent bleiben, d. h. interferenzfähig und nicht entmischt. Entscheidend ist das Verhältnis von Kohärenzzeit zu Gate-Laufzeit – typischerweise sollte ein Qubit >1000 Gatteroperationen innerhalb seiner T₂-Zeit ausführen können.

  • Supraleiter (Transmon): T₁ ≈ 50–200 µs, T₂ ≈ 20–100 µs, Gatterdauer ≈ 10–100 ns
  • Ionenfallen: T₁ und T₂ im Bereich von Sekunden, Gatterdauer ≈ 10–100 µs
  • NV-Zentren: T₂* bis zu Millisekunden bei isotopenreinem Diamant

Die Herausforderung liegt weniger in der Kohärenzdauer an sich als in deren Stabilität, Skalierbarkeit und Störanfälligkeit bei wachsender Qubit-Anzahl.

Universalität der Gatter

Ein universeller Quantencomputer benötigt zwei Typen von Operationen:

  1. Einzelqubit-Gatter (z. B. Hadamard, X, Y, Z, Phase, Rotation)
  2. Zwei-Qubit-Gatter (z. B. CNOT, CZ), die Verschränkung erzeugen

Die Menge dieser Operationen muss jede beliebige unitäre Transformation im Hilbertraum approximieren können.

  • Supraleiter: Realisierung durch Mikrowellenpulse und resonante Kopplung über Kopplungsresonatoren
  • Ionenfallen: Mølmer-Sørensen-Gatter mit hoher Treue
  • Photonen: Linear-optische Gatter über Interferenz, jedoch probabilistisch

Die Qualität dieser Gatter wird über die Fidelity (Gate-Treue) gemessen – heute üblich sind Werte >99,5 % bei supraleitenden Systemen und >99,9 % bei Ionenfallen.

Qubit-spezifische Messbarkeit

Zur Extraktion von Rechenergebnissen muss der Zustand eines bestimmten Qubits präzise und lokal gemessen werden können, ohne andere Qubits zu beeinflussen.

  • Supraleiter: Dispersive Messung über Kopplung an Resonatoren; typischerweise mit Treuen >98 %
  • Ionenfallen: Fluoreszenzdetektion mit Treuen >99,9 %
  • NV-Zentren: Photolumineszenz-basiert, aber begrenzt in Treue

Wichtige Parameter sind Messzeit, QND-Eigenschaften (quantum non-demolition), Crosstalk und Signal-zu-Rausch-Verhältnis.

Skalierbarkeit

Ein physikalisches Qubit-System muss prinzipiell auf viele Tausend bis Millionen Qubits erweiterbar sein, ohne dass die Steuer- und Messarchitektur unhandlich oder das Rauschniveau unkontrollierbar wird.

Herausforderungen:
  • Verkabelung: Mikrowellenleitungen bei Millikelvin für supraleitende Qubits
  • Modularisierung: Chip-Verbundsysteme mit lokaler Steuerung
  • Fehlertoleranz: Jede zusätzliche Qubitschicht muss auch fehlerkorrigierbar sein
Ansätze:
  • IBM verfolgt ein Chiplet-basiertes System
  • IonQ setzt auf modulare Ion-Fallen mit Photonenverbindung
  • PsiQuantum nutzt photonische Cluster-State-Architekturen mit integriertem Silizium

Schnittstellen zu Quantenkommunikation

Für verteilte Quantenrechner oder Quanteninternet-Anwendungen muss der Qubit-Zustand zwischen zwei Systemen kohärent übertragen werden können – entweder direkt oder über Verschränkung.

Implementierungen:

  • Photonische Qubits: Ideal für Übertragung in Glasfaser oder durch Luft
  • Hybride Systeme: Konversion supraleitender Qubit-Zustände in Photonen (z. B. über optomechanische Koppler)
  • Ionenfallen: Verschränkte Photonenemission zum Aufbau eines Netzwerks

Noch ist keine Plattform in der Lage, alle Kommunikationsschnittstellen umfassend zu erfüllen, doch photonische Integration in Festkörperplattformen gilt als vielversprechender Weg.

Quantenkontrolle und Messung

Steuerung physikalischer Qubits: Techniken und Präzision

Die gezielte Manipulation von Qubits erfordert extrem genaue Steuerungsmechanismen, die im Nanosekunden- oder Mikrosekundenbereich operieren und dennoch die fragile Quantennatur des Systems bewahren. Für verschiedene Qubit-Plattformen existieren unterschiedliche Techniken, die aber einem gemeinsamen Ziel dienen: unitäre Operationen mit hoher Treue und geringer Fehlerrate durchzuführen.

Mikrowellen- und Laserpulsfolgen

  • Supraleitende Qubits (z. B. Transmon) werden durch Mikrowellenpulse gesteuert, die spezifische Übergänge zwischen den Zuständen |0\rangle und |1\rangle induzieren.
  • Ionenfallen-Qubits nutzen präzise modulierte Laserpulse, deren Frequenz, Amplitude, Phase und Dauer auf bestimmte Übergänge zwischen Hyperfeinzuständen abgestimmt sind.

Rabi-Oszillationen

Eine fundamentale Methode der Quantenkontrolle ist die Rabi-Oszillation, bei der ein Qubit periodisch zwischen zwei Zuständen oszilliert, wenn es mit einem resonanten Feld angeregt wird. Die Wahrscheinlichkeitsamplitude folgt:

P_{|1\rangle}(t) = \sin^2\left(\frac{\Omega t}{2}\right)

mit \Omega als Rabi-Frequenz. Pulsdauern von \pi/\Omega und \pi/2\Omega entsprechen X- und Hadamard-Gattern.

STIRAP (Stimulated Raman Adiabatic Passage)

In dreistufigen Quantensystemen kann mit STIRAP eine adiabatische, robustere Zustandsüberführung zwischen |0\rangle und |1\rangle erfolgen, ohne dass der Zwischenzustand signifikant bevölkert wird. STIRAP ist besonders bei atomaren Qubits relevant.

Dynamische Entkopplung

Zur Unterdrückung langsamer Rauschprozesse werden sogenannte dynamische Entkopplungsschemata eingesetzt, etwa durch Carr-Purcell-Meiboom-Gill-Sequenzen (CPMG) oder mehrgliedrige Pulse, die gezielt Phasenfehler kompensieren.

Ziel: Verlängerung der effektiven T₂-Zeit und Stabilisierung von Superpositionen.

Messverfahren und ihre Auflösung

Die Messung von physikalischen Qubits ist ein zentraler Teil jeder quantenmechanischen Operation, denn sie entscheidet über das extrahierte Ergebnis und oft auch über den nächsten Rechenschritt in adaptiven Algorithmen. Die Herausforderung besteht darin, den Qubit-Zustand präzise auszulesen, ohne andere Qubits zu beeinflussen oder den Zustand destruktiv zu zerstören.

Quanten-nicht-destruktive Messungen (QND)

Eine Messung ist Quantum Non-Demolition (QND), wenn sie den gemessenen Zustand nicht verändert – d. h., bei wiederholter Messung bleibt das Ergebnis stabil. QND-Messungen sind in vielen Plattformen erreichbar und essentiell für Fehlerkorrektur-Feedback und adaptive Gatteroperationen.

Beispiel:

  • In Ionenfallen erfolgt QND-Auslese durch Fluoreszenz: nur ein Zustand fluoresziert unter Laserbestrahlung – der andere bleibt dunkel.
  • In supraleitenden Qubits realisiert man QND durch detektierte Frequenzverschiebungen (siehe unten).

Dispersive Messung in der Zirkularen QED (supraleitend)

In der circuit QED ist der Qubit an einen Mikrowellenresonator gekoppelt, mit Hamiltonian:

\hat{H} = \hbar\omega_r \hat{a}^\dagger \hat{a} + \frac{1}{2}\hbar\omega_q \hat{\sigma}z + \hbar g (\hat{a}^\dagger \hat{\sigma}- + \hat{a} \hat{\sigma}_+)

Im dispersiven Regime (große Frequenzdifferenz) ergibt sich eine Qubit-zustandsabhängige Verschiebung der Resonanzfrequenz:

\omega_r \rightarrow \omega_r \pm \chi

Diese Frequenzverschiebung wird durch Messung des Streusignals detektiert – der Qubit-Zustand wird indirekt abgelesen, ohne ihn zu zerstören.

Vorteile:
  • QND-fähig
  • Skalierbar
  • Kompatibel mit Verstärkern (z. B. JPA: Josephson Parametric Amplifier)
Grenzen:
  • Signal-Rausch-Verhältnis
  • Verstärkerbandbreite bei vielen Qubits

Crosstalk, Fehladressierung und Kontrollierbarkeit

Ein Problem wachsender Qubitsysteme ist der Crosstalk – ungewollte Wechselwirkungen zwischen Qubits oder zwischen Kontrollkanälen. Dies kann zu ungewollten Gate-Ausführungen, Phase-Drift oder Dekohärenz führen.

Ursachen von Crosstalk:

  • Übersprechen elektrischer Leitungen (z. B. durch Nähe von Mikrowellenleitungen)
  • Unvollständige Frequenztrennung (beim Frequenzmultiplexing)
  • Nichtideale Isolation der Qubit-Moden
  • Streuung von Laserlicht in Ionenfallen

Strategien zur Minimierung:

  • Frequenzabstand (Anharmonizität): Qubits werden mit unterschiedlichen Resonanzfrequenzen konstruiert
  • Pulse-Shaping-Techniken: z. B. DRAG-Pulse (Derivative Removal by Adiabatic Gate), um Leckage in Nachbarzustände zu unterdrücken
  • 3D-Architektur: Bessere physikalische Trennung von Steuerleitungen
  • Kryogene Verstärkung und Isolation: Reduktion von Rückkopplung

Fehladressierung vermeiden:

Besonders bei dicht gepackten Qubits (z. B. 2D-Gitter) ist es essenziell, einzelne Qubits gezielt und ohne Nebeneffekte anzusteuern. Hier helfen:

  • Einzelfrequenzansprache
  • Multi-Tone-Techniken mit Interferenzunterdrückung
  • Adaptive Kalibrierung mittels Machine Learning

Mit zunehmender Qubit-Anzahl wird die präzise Kontrolle zum limitierenden Faktor – neben Fehlerkorrektur ist dies eine der größten aktuellen Herausforderungen im Quantenengineering.

Dekohärenzmechanismen: Physikalisch präzise betrachtet

Dephasierung vs. Relaxation

Die Dekohärenz eines Qubits beschreibt den Verlust seiner quantenmechanischen Eigenschaften durch Wechselwirkung mit seiner Umgebung. Sie tritt in zwei grundsätzlich verschiedenen Formen auf:

  • Relaxation (T₁-Zeit): Der Qubit verliert Energie und fällt vom angeregten Zustand |1\rangle in den Grundzustand |0\rangle.
  • Dephasierung (T₂-Zeit): Die relative Phase zwischen |0\rangle und |1\rangle verändert sich unkontrolliert, ohne Energieverlust.

Mathematisch modelliert man diese Prozesse mithilfe der Lindblad-Mastergleichung, die die zeitliche Entwicklung der Dichtematrix \rho(t) eines offenen Quantensystems beschreibt:

\frac{d\rho}{dt} = -\frac{i}{\hbar}[\hat{H}, \rho] + \sum_k \left( \hat{L}_k \rho \hat{L}_k^\dagger - \frac{1}{2} \left{ \hat{L}_k^\dagger \hat{L}_k, \rho \right} \right)

Die Operatoren \hat{L}_k modellieren dissipative Prozesse wie:

  • \hat{L}1 = \sqrt{\gamma_1} \hat{\sigma}- für Relaxation (mit Rate \gamma_1 = 1/T_1)
  • \hat{L}2 = \sqrt{\gamma\phi} \hat{\sigma}_z für reine Dephasierung (mit Rate \gamma_\phi = 1/T_\phi)

Die gesamte Kohärenzzeit T_2 ergibt sich dann durch:

\frac{1}{T_2} = \frac{1}{2T_1} + \frac{1}{T_\phi}

Während T₁ durch den Energieverlust bestimmt ist, ist T_\phi stark abhängig von Rauschquellen mit niedrigen Frequenzen (z. B. 1/f-Rauschen).

Rauschquellen

Dekohärenz entsteht immer durch Störquellen in der Umgebung des Qubits, die mit seinem Quantenzustand wechselwirken. Diese Quellen lassen sich klassifizieren nach Frequenzspektrum, Ursprung und physikalischer Kopplung.

1/f-Rauschen

Ein besonders dominanter Störfaktor ist das 1/f-Rauschen, auch Flickerrauschen genannt. Es tritt bei sehr niedrigen Frequenzen auf und verursacht besonders problematische, zeitlich langsame Schwankungen in:

  • Ladung (Charge noise),
  • magnetischem Fluss (Flux noise),
  • Kopplungskonstanten.

Sein Leistungsspektrum ist gegeben durch:

S(f) \propto \frac{A}{f^\alpha}, \quad \text{mit} \quad \alpha \approx 1

Dieses Rauschen ist oft struktureller Natur und tritt etwa in amorphen Materialien oder an Oberflächen-Grenzflächen auf – etwa bei Transmon-Qubits mit Oxidschichten.

Johnson-Nyquist-Rauschen

Dieses thermisch erzeugte Rauschen stammt aus elektrischen Widerständen und ist vollständig durch die Temperatur T bestimmt. Sein Spektrum ist flach (weißes Rauschen):

S_V(f) = 4k_B T R

Es beeinflusst insbesondere supraleitende Qubits über die Steuer- und Leselinien. Durch gute Filterung und Kühlung kann es minimiert werden.

Zwei-Niveau-Systeme (TLS)

Eine besonders schwierige Rauschquelle sind sogenannte TLS-Defekte: Atome oder Gruppen in amorphen Materialien, die zwischen zwei metastabilen Zuständen tunneln können. Sie koppeln an elektrische oder magnetische Felder und können sowohl Energie absorbieren (T₁-Verluste) als auch Phasenstörungen verursachen (T₂-Verluste).

TLS treten besonders in:

  • Oxid-Schichten,
  • Grenzflächen von Metallen und Substraten oder
  • nicht-kristallinen Bereichen

auf und gelten als einer der Hauptgründe für begrenzte Kohärenzzeiten bei supraleitenden Qubits.

Physikalische Methoden zur Kohärenzverbesserung

Um Dekohärenz zu bekämpfen, greifen moderne Quanteningenieure zu einer Kombination aus Materialoptimierung, elektromagnetischer Abschirmung und pulsbasierter Fehlerunterdrückung.

Materialreinigung und Kristallkontrolle

  • Verwendung von isotopenreinem Silizium-28 (kein Kernspin → keine Magnetfelder)
  • Reinstelektroden und Oxid-Schichten mit kontrollierter Wachstumsrate
  • Plasmafreies Ätzen, um Grenzflächendefekte zu minimieren

In supraleitenden Systemen werden speziell gefertigte Al/AlOₓ-Josephson-Kontakte oder Nanolaminate eingesetzt, um TLS-Defekte zu minimieren.

Elektromagnetisches Shielding

  • Mu-Metall-Umhausungen, um magnetisches Rauschen abzuschirmen
  • Filterketten (z. B. Eccosorb, Kupferpulver-Filter) zur Dämpfung hochfrequenter Störungen
  • Stufenweise thermische Isolation (Millikelvin-Regime im Dilutionskryostaten)

Diese Maßnahmen sind essenziell, da selbst minimaler Wärmeeintrag ein Qubit aus dem Grundzustand bringen kann.

Fehler-resiliente Pulse

Speziell geformte Pulssequenzen können systematische Fehler unterdrücken:

  • DRAG-Pulse (Derivative Removal by Adiabatic Gate): verhindern Leckage in höhere Zustände beim Transmon
  • CPMG- und XY-Sequenzen: unterdrücken Dephasierung durch zeitliche Modulation
  • Composite-Pulse-Schemata: erzeugen rotationsrobuste Gatter (z. B. BB1, CORPSE)

Solche Techniken werden auch für dynamische Entkopplung in der Fehlerkorrektur eingesetzt und stellen eine aktive Form der Kohärenzbewahrung dar.

Fehlerkorrekturstrategien auf physikalischer Ebene

Fehlerarten: bit-flip, phase-flip, depolarisierendes Rauschen

Im Gegensatz zu klassischen Systemen unterliegen Qubits nicht nur bitweisen Fehlern, sondern auch rein quantenmechanischen Störungen. Die wichtigsten Fehlerarten lassen sich wie folgt beschreiben:

Bit-Flip-Fehler

Ein klassischer Fehler, bei dem |0\rangle \rightarrow |1\rangle bzw. |1\rangle \rightarrow |0\rangle transformiert wird. Dieser entspricht dem Pauli-X-Operator:

\hat{X} = \begin{pmatrix} 0 & 1 \ 1 & 0 \end{pmatrix}

Ursache: Energieabsorption oder spontane Relaxation (T₁-Prozess).

Phase-Flip-Fehler

Hier wird die Phase eines Zustands invertiert: |+\rangle = \frac{1}{\sqrt{2}}(|0\rangle + |1\rangle) wird zu |-\rangle = \frac{1}{\sqrt{2}}(|0\rangle - |1\rangle). Entspricht dem Pauli-Z-Operator:

\hat{Z} = \begin{pmatrix} 1 & 0 \ 0 & -1 \end{pmatrix}

Ursache: Dephasierung durch Rauschen oder Detunings (T₂-Verlust).

Depolarisierendes Rauschen

Eine zufällige Anwendung eines der drei Pauli-Operatoren mit definierter Wahrscheinlichkeit – der allgemeinste Ein-Qubit-Fehlermodellierungsansatz:

\rho \rightarrow (1-p)\rho + \frac{p}{3}(\hat{X}\rho\hat{X} + \hat{Y}\rho\hat{Y} + \hat{Z}\rho\hat{Z})

Mit diesem Rauschmodell lassen sich reale Fehlerprozesse in physikalischen Qubits gut approximieren, insbesondere in Gate-Operationen und bei Auslesefehlern.

Redundanz durch Encoding (Shor, Steane, Surface Codes)

Um physikalische Fehler zu kompensieren, nutzt man Redundanz durch logisches Encoding – d. h., ein logischer Qubit wird durch mehrere physikalische Qubits realisiert. Bekannte Verfahren sind:

Shor-Code

Der Shor-Code war der erste Quantenfehlerkorrekturcode. Er kodiert einen logischen Qubit auf 9 physikalische Qubits und kann sowohl Bit- als auch Phase-Fehler korrigieren. Die Kodierung erfolgt über eine Kombination von Dreifach-Mehrheiten in X- und Z-Basis.

|0_L\rangle = \frac{1}{2\sqrt{2}}(|000\rangle + |111\rangle)^{\otimes 3}

Steane-Code

Ein effizienterer Code mit 7 Qubits (CSS-Code), basierend auf der klassischen Hamming-(7,4)-Fehlerkorrektur. Kann ein beliebiges Pauli-Fehlerereignis auf einem einzelnen physikalischen Qubit korrigieren. Er ist strukturierter als der Shor-Code und besser für fault-tolerante Gatter geeignet.

Surface Code

Der Surface Code gilt derzeit als der vielversprechendste Topologie-basierte Fehlerkorrekturcode. Er verwendet ein 2D-Gitter aus Qubits, bei dem physikalische Qubits in Daten- und Syndrome-Qubits unterteilt sind. Fehler werden über lokale Stabilisatoren detektiert.

Vorteile:
  • Nur nearest-neighbor-Kopplung erforderlich
  • Sehr hohe Fehlertoleranz-Schwelle (≈1 %)
  • Kompatibel mit supraleitenden Architekturen

Die logische Fehlerwahrscheinlichkeit P_L skaliert exponentiell mit dem Code-Distanz d und der physikalischen Fehlerrate p:

P_L \sim \left( \frac{p}{p_{\text{th}}} \right)^{(d+1)/2}

wobei p_{\text{th}} die kritische Schwelle des Codes ist.

Break-even“-Experimente und aktuelle Fortschritte

Der zentrale Meilenstein der praktischen Quantenfehlerkorrektur ist das sogenannte „Break-even“: Der Punkt, an dem ein logisch kodierter Qubit eine längere Lebensdauer besitzt als jeder einzelne seiner physikalischen Qubits – also Netto-Fehlerresilienz.

Google (2023)

In einem Nature-Paper demonstrierte Google mit seinem Sycamore-Prozessor einen Surface Code mit 72 Qubits und Code-Distanzen bis d = 5. Sie zeigten:

  • exponentielle Reduktion der logischen Fehlerwahrscheinlichkeit bei wachsendem d
  • Überschreiten der Schwelle von p_{\text{th}} ≈ 1%
  • Fehlerkorrektur in Echtzeit, inkl. Fehlerverfolgung

Dies war der erste realisierte Durchbruch in Richtung skalierbarer QEC unter realistischen Bedingungen.

IBM (2024)

IBM veröffentlichte Ergebnisse zur dynamischen, kontinuierlichen Fehlerkorrektur auf 127-Qubit-Prozessoren (Eagle), wobei logische Qubits über mehrere Qubitzyklen aktiv korrigiert wurden. Sie nutzten:

IBM konnte zeigen, dass der logische Qubit im Surface-Code-Layout bis zu dreimal stabiler war als die beteiligten Einzel-Qubits.

Bedeutung: Diese Experimente markieren den Übergang von experimenteller Fehlerkorrektur zu anwendungsrelevanter Fehlerresilienz.

Skalierbarkeit physikalischer Qubits

Architekturen für viele Qubits

Die Skalierbarkeit ist das entscheidende Kriterium für den praktischen Nutzen physikalischer Qubits. Ziel ist es, eine Architektur zu entwerfen, bei der Tausende bis Millionen Qubits effizient gesteuert, gekoppelt und ausgelesen werden können – ohne exponentielle Zunahme an Hardwarekomplexität, Rauschen oder Verlusten.

2D-Arrays

Die derzeit führenden Plattformen – insbesondere supraleitende Qubits – setzen auf zweidimensionale Gitter aus Qubits. Diese 2D-Arrays erlauben:

  • lokale Nachbarschaftskopplung, wichtig für Surface Codes
  • reduzierte Crosstalk-Komplexität
  • effiziente Verkabelung der Steuer- und Lesesignale

Beispiel:

  • IBM's Eagle- und Condor-Prozessoren: strukturierte 2D-Layouts mit bis zu 1121 Qubits (für 2025 angekündigt)

3D-Verkabelung

Mit steigender Qubit-Zahl stößt man in 2D-Strukturen schnell auf das Problem der Verdrahtung:

  • Mikrowellenleitungen, Verstärker, Bias- und Taktleitungen erzeugen thermische und elektrische Engpässe
  • Parallele Verdrahtung im kryogenen Raum ist technologisch begrenzt

Lösung: Einführung dreidimensionaler Integration, z. B. durch:

  • Through-silicon vias (TSV)
  • Flip-Chip-Bonding
  • Superconducting interposer

Damit kann die Steuerungselektronik in mehreren Ebenen angeordnet werden – ein Prinzip, das in klassischen CMOS-Architekturen längst Standard ist.

Quantum Interconnects

Für den modularen Aufbau oder das Vernetzen verteilter Chips werden sogenannte Quantum Interconnects benötigt – Verbindungen, die quantenkohärente Zustände zwischen Modulen übertragen.

Möglichkeiten:

  • Photonische Interconnects für Raum-Zeit-Verschränkung
  • Superconducting Microwave Buses für Chip-zu-Chip-Kopplung
  • Hybrid-Feld-Koppler für unterschiedliche Plattformen

Modulare Ansätze und Quantenkommunikation

Ein erfolgversprechender Weg zur Skalierung ist der Übergang zu modularen Architekturen – also kleineren, spezialisierbaren Einheiten, die über quantenkohärente Verbindungen logisch zu größeren Systemen verschaltet werden.

Modulare Qubit-Chips

  • IBM verfolgt eine Chiplet-Strategie, bei der kleinere Qubit-Arrays über sogenannte „quantum interposers“ zusammenarbeiten.
  • Ionenfallen (z. B. Quantinuum, Honeywell) nutzen segmentierte Fallenarrays, die über optische Interfaces kommunizieren.

Photonisch vermittelte Qubit-Verschränkung

Besonders in Ionenfallen und NV-Zentren wird die Verschränkung über einzelne Photonen genutzt, die simultan mit zwei Qubits wechselwirken:

  1. Jedes Qubit emittiert ein verschränktes Photon.
  2. Die Photonen interferieren auf einem Strahlteiler.
  3. Eine Koinzidenzmessung erzeugt projektiv eine Verschränkung der entfernten Qubits.

Dies erlaubt die Schaffung vernetzter Quantenrechner – Grundlage für das Quanteninternet.

Kühlung und thermodynamische Anforderungen

Ein oft unterschätztes, aber zentrales Thema beim Hochskalieren physikalischer Qubits ist die Kryotechnik – die Fähigkeit, große Qubit-Arrays bei extrem niedrigen Temperaturen (typisch 10–20 mK) zuverlässig zu betreiben.

Dilutionskryostate

Die gängigste Technologie zur Erreichung dieser Temperaturen basiert auf Mischungskühlung von Helium-3/Helium-4-Isotopen. Moderne Dilutionskryostate ermöglichen:

  • Plattformen mit < 20,\text{mK}
  • Kühlleistung von mehreren \mu\text{W} bis \text{mW} bei diesen Temperaturen
  • Integration komplexer HF- und DC-Infrastruktur

Thermisches Management

Skalierung bedeutet:

  • mehr Verkabelung → mehr Wärmeeintrag
  • mehr Verstärker → mehr Energieverbrauch
  • mehr Qubits → mehr dissipative Prozesse

Lösungen umfassen:

  • Kryogene Multiplexing-Technologien (z. B. Zeitmultiplexing bei Auslesung)
  • Superconducting Rapid Single Flux Quantum (RSFQ) für effiziente Steuerung
  • Integration von kryogener Elektronik direkt in der Kälteebene (siehe Arbeiten von Google und Zurich Instruments)

Ein langfristiges Ziel ist die Entwicklung vollintegrierter, CMOS-kompatibler Qubit-Kontrollschaltungen im Millikelvin-Bereich.

Industrielle Umsetzung und Plattformvergleich

Technologievergleich mit quantitativer Bewertung

Der aktuelle Stand der Technik bei physikalischen Qubits ist durch mehrere konkurrierende Plattformen geprägt. Diese unterscheiden sich nicht nur in ihrer physikalischen Realisierung, sondern auch in Eigenschaften wie Kohärenzzeit, Gatterqualität, Skalierbarkeit und industrieller Reife. Die folgende Tabelle vergleicht drei der wichtigsten Ansätze:

Plattform T₁/T₂-Zeit Gate-Treue Skalierung Reifegrad
Supraleiter 100 µs / 50–100 µs >99.9 % Hoch Hoch
Ionenfallen Sekunden >99.99 % Mittel Mittel
Photonen ∞ (keine T₁/T₂) >98 % Hoch Niedrig

Supraleitende Qubits

  • Hervorragend steuerbar, gut integrierbar in bestehende Halbleiterfertigung
  • Limitiert durch Anforderungen an Kryotechnik und Materialreinheit
  • Marktführer: IBM, Google, Rigetti

Ionenfallen-Qubits

  • Höchste Einzel-Qubit-Fidelity und Kohärenzzeiten
  • Skalierung komplex durch Vibrationsmoden und Laserkontrolle
  • Marktführer: IonQ, Quantinuum

Photonische Qubits

  • Ideal für Quantenkommunikation, unbegrenzte Kohärenz bei Übertragung
  • Fehlende deterministische Zwei-Qubit-Gatter hemmen universelles Quantencomputing
  • Marktführer: PsiQuantum

Industrieakteure und ihre Strategien

IBM (Transmon)

IBM verfolgt seit über einem Jahrzehnt eine systematische Entwicklung supraleitender Qubits auf Basis des Transmon-Designs. Die wichtigsten Meilensteine:

  • IBM Quantum Experience (2016): Erster frei zugänglicher Quantenprozessor
  • Eagle (2021): 127-Qubit-Chip, Surface-Code-fähig
  • Roadmap bis 2026: Skalierung auf >1000 Qubits durch modulare 3D-Architektur

Strategie:

  • Fokus auf Open-Source-Software (Qiskit)
  • Integration mit klassischer Cloud-Infrastruktur (IBM Quantum Cloud)
  • Fortschritte in Fehlerkorrektur und kryogener Steuerung

IonQ (Ionenfallen)

IonQ nutzt gefangene Ytterbium-Ionen in mikrostrukturierten RF-Fallen. Die wichtigsten Merkmale:

  • Einzel-Ion-Adressierung per Laser
  • Hochpräzise Gate-Treue >99,99 %
  • Photonisch vermittelte Qubit-Verschränkung für Vernetzung

Strategie:

  • Skalierung durch modulare Ion-Chips mit photonischem Interface
  • Fokus auf Cloud-Zugänglichkeit und Software-Tooling
  • Kooperation mit Microsoft Azure Quantum und Amazon Braket

PsiQuantum (Photonen)

PsiQuantum verfolgt ein radikal photonisches Konzept für skalierbares, fehlertolerantes Quantencomputing auf Basis linearer Optik.

  • Silizium-basierte photonische Qubits
  • Single-Photonenquellen, Detektoren und Interferometer auf CMOS-Chips
  • Fokus auf Cluster-State-Computing mit Fehlerkorrektur

Strategie:

  • Bau eines 1-Million-Qubit-Quantencomputers (fault-tolerant)
  • Partnerschaft mit GlobalFoundries zur Massenfertigung
  • Photonische Kommunikation für globale Vernetzung

Silicon Quantum Computing (Spins in Si)

Diese australische Initiative entwickelt Qubits auf Basis von Spin-Zuständen einzelner Elektronen und Kerne in isotopenreinem Silizium.

  • Extrem lange Kohärenzzeiten durch spinfreie Umgebung
  • Kompatibel mit existierender CMOS-Fertigung
  • Pionierarbeit durch Michelle Simmons (UNSW)

Strategie:

  • Aufbau eines prototypischen Quantenprozessors in Silizium
  • Entwicklung von Einzelatom-Fertigungsverfahren (STM-Lithographie)
  • Ziel: All-Silicon-Quantum-Computer mit minimalem Kühlbedarf

Nationale und internationale Quantenprogramme

Die industrielle Entwicklung physikalischer Qubits wird zunehmend von staatlichen und supranationalen Initiativen gefördert, die Forschung, Prototyping und Infrastrukturinvestitionen vorantreiben.

EU Quantum Flagship

Das europäische Großforschungsprogramm „Quantum Flagship“ (seit 2018) umfasst:

  • 1 Milliarde Euro Fördervolumen über 10 Jahre
  • Schwerpunkte: Quantencomputer, Quantenkommunikation, Quantenmetrologie
  • Unterstützung von Plattformen wie Photonen, Supraleiter, NV-Zentren und Topologische Qubits

Beteiligte Projekte: OpenSuperQ, AQTION, QuTech, Quantum Inspire

NIST (USA)

Das US-amerikanische National Institute of Standards and Technology (NIST) unterstützt Quantenhardware-Standardisierung, Fehlercharakterisierung und Messinfrastruktur. Wichtigste Aktivitäten:

  • Entwicklung von Benchmarks (z. B. Randomized Benchmarking, Gate-Set Tomography)
  • Beteiligung an Quantum Economic Development Consortium (QED-C)

BMBF & QuNET (Deutschland)

Das Bundesministerium für Bildung und Forschung (BMBF) fördert im Rahmen der „Quantentechnologien – von den Grundlagen zum Markt“-Initiative:

  • QSolid: Aufbau eines deutschen Quantenprozessors (Fokus auf supraleitende Qubits)
  • ATIQ: Ionenfallenbasierte Quantencomputer als Cloud-Dienste
  • QuNET: Aufbau einer abhörsicheren Quantenkommunikationsinfrastruktur zwischen Behörden und Forschungseinrichtungen

Deutschland positioniert sich damit sowohl in Quantencomputing als auch in Quantenkommunikation als zentraler europäischer Standort.

Ausblick: Die Zukunft physikalischer Qubits

Hybride Plattformen und Integration mit CMOS

Ein zentraler Trend der kommenden Jahre ist die hybride Kombination unterschiedlicher physikalischer Qubit-Plattformen, um die Vorteile verschiedener Systeme gezielt zu verbinden. Ziel ist es, Systeme zu schaffen, die gleichzeitig skalierbar, fehlertolerant und kommunikationsfähig sind.

Hybride Architekturen

Hybride Systeme verbinden z. B.:

  • supraleitende Qubits für schnelle Berechnung,
  • photonische Qubits für Kommunikation und Vernetzung,
  • Spins in Festkörpern für Speicherzwecke (quantum memory),
  • Ionenfallen für hochfidele Gatter in kleinen Registern.

Ein praktisches Beispiel ist die Konversion von supraleitenden Mikrowellenzuständen in optische Photonen mittels optomechanischer Wandler – eine Schlüsselkomponente für skalierbare quantum interconnects.

Integration mit CMOS-Technologien

Langfristig wird die Integration von klassischer Steuerungselektronik mit Qubit-Chips angestrebt – idealerweise im selben Fertigungsprozess. Erste Ansätze umfassen:

  • kryogene CMOS-Schaltkreise, die bei <4 K arbeiten (z. B. für DACs, Multiplexer, Pulse Generatoren)
  • CMOS-fähige Qubit-Designs, etwa Spins in Silizium (Silicon Quantum Computing) oder photonische Wellenleiter

Diese Integration könnte eine vollständige „Quanten-System-on-Chip“-Architektur ermöglichen, mit massiver Reduktion von Latenz, Verkabelung und Energieverbrauch.

Topologische Qubits als Lösung?

Eine besonders vielversprechende – wenngleich experimentell herausfordernde – Perspektive sind topologische Qubits, die auf exotischen Quasiteilchen wie Majorana-Nullmoden beruhen. Die Zustände dieser Qubits sind nicht lokal gespeichert, sondern in der Raum-Zeit-Konfiguration mehrerer Teilchen nichttrivial eingebettet – wodurch sie inhärent gegen lokale Störungen geschützt sind.

Grundprinzip

Topologische Qubits basieren auf nichtabelscher Statistik, bei der der Austausch zweier Quasiteilchen nicht zu einem Phasenwechsel, sondern zu einer Zustandsrotation führt. Die resultierende Robustheit gegen Umwelteinflüsse macht diese Qubits ideal für fehlertolerantes Rechnen.

Forschungsstand

  • Microsofts StationQ arbeitet an der Realisierung von Majorana-Qubits in Halbleiter-Supraleiter-Hybriden.
  • Erste experimentelle Hinweise auf Majorana-Zustände wurden in Indiumantimonid-Nanodrähten gefunden – jedoch ist deren Interpretation bis heute umstritten.

Obwohl topologische Qubits den „heiligen Gral“ des robusten Qubits versprechen, ist die technologische Umsetzung noch weit entfernt von industrieller Reife.

Rolle physikalischer Qubits im Zeitalter des fehlerkorrigierten Rechnens

Die nächste große Ära des Quantencomputing wird durch den Übergang vom Noisy Intermediate-Scale Quantum (NISQ)-Regime zur fehlertoleranten, logisch kodierten Verarbeitung geprägt sein. In dieser Zukunft spielen physikalische Qubits eine fundamentale Rolle als:

  • Rohmaterial für logische Qubits, die über Fehlerkorrektur stabilisiert werden
  • Bewertungsbasis für Hardware-Innovation (Gate-Treue, T₁/T₂, Crosstalk etc.)
  • Limitierende Ressource für die Skalierung logischer Architekturen (z. B. 1000:1 bei Surface Codes)

Das Verhältnis zwischen physikalischen und logischen Qubits bestimmt die reale Nutzbarkeit von Quantenalgorithmen für Simulation, Optimierung oder Kryptographie. Auch die Hardwarekosten, die Kühlleistung und die Rechenlatenz hängen unmittelbar von der Qualität physikalischer Qubits ab.

Der Wettlauf um hochfidele, kohärente und skalierbare physikalische Qubits ist daher kein Nebenkriegsschauplatz, sondern die Grundvoraussetzung für die Ära des praktischen Quantencomputings.

Fazit

Physikalische Qubits sind der elementare Grundbaustein aller heutigen und zukünftigen Quanteninformationssysteme. Sie verkörpern das fragile Zusammenspiel zwischen quantenmechanischer Überlagerung, kontrollierter Verschränkung und technischer Realisierbarkeit. Der Begriff umfasst dabei nicht nur eine abstrakte Einheit quantenmechanischer Information, sondern vielmehr ein konkret implementiertes, kontrolliertes und messbares Quantensystem – sei es in Form eines supraleitenden Josephson-Oszillators, eines gespeicherten Ions, eines NV-Zentrums oder eines Photons.

Der Artikel hat gezeigt:

  • Die Vielfalt physikalischer Plattformen ist Ausdruck einer lebendigen und multidisziplinären Forschungslandschaft. Jede Plattform balanciert anders zwischen Kohärenz, Kontrollierbarkeit, Skalierung und industrieller Umsetzbarkeit.
  • Die Dekohärenz, als fundamentale physikalische Herausforderung, bleibt das zentrale Hindernis für langfristige Informationsverarbeitung – ihr Verständnis erfordert ein tiefes Wissen über Rauschanalysen, Materialphysik und offene Quantensysteme.
  • Die Entwicklung von Fehlerkorrekturstrategien und skalierbaren Architekturen hat bereits erste „Break-even“-Punkte überschritten – ein historischer Wendepunkt auf dem Weg zum fehlerkorrigierten Quantenrechnen.
  • In der industriellen Umsetzung zeichnen sich klare Schwerpunkte ab: Transmon-Qubits bei IBM, Ionenfallen bei IonQ, photonische Qubits bei PsiQuantum und Spin-Qubits bei SQC.

Zugleich wurde deutlich: Die Entwicklung physikalischer Qubits ist kein abgeschlossenes Kapitel, sondern ein kontinuierlicher Optimierungsprozess, der eng an Fortschritte in der Materialwissenschaft, Halbleitertechnik, Laserkontrolle, Kryotechnologie und Fehlerdiagnostik gekoppelt ist.

Die Zukunft des Quantencomputings – sei es in wissenschaftlicher Grundlagenforschung, kryptographischer Absicherung oder industrieller Simulation – hängt maßgeblich von der Fähigkeit ab, robuste, kohärente, präzise steuerbare und massenhaft produzierbare physikalische Qubits zu entwickeln.

Mit jeder weiteren Generation rückt die Vision des fehlertoleranten, skalierbaren Quantencomputers näher – getragen von der unsichtbaren, aber fundamentalen Schicht: den physikalischen Qubits.

Mit freundlichen Grüßen Jörg-Owe Schneppat

Anhang

Weiterführende Links

IBM Quantum Führend bei supraleitenden Transmon-Qubits und Surface Codes https://research.ibm.com/quantum

Google Quantum AI Entwickler des Sycamore-Prozessors, Pionierarbeit zur Quantenüberlegenheit https://quantumai.google

IonQ Kommerzielle Ionenfallen-Quantencomputer mit Lasersteuerung https://ionq.com

PsiQuantum Photonisches Quantencomputing auf CMOS-Basis https://psiquantum.com

Silicon Quantum Computing (SQC) Spin-Qubits in isotopenreinem Silizium, CMOS-integriert https://www.sqc.com.au

Quantinuum Zusammenschluss aus Honeywell Quantum und Cambridge Quantum, Ionenfallenplattform https://www.quantinuum.com

ETH Zürich – Quantum Center Führende Forschung zu Quantenarchitekturen, Materialien, Kontrolle und Skalierbarkeit https://quantum.ethz.ch

Max-Planck-Institut für Quantenoptik (MPQ) Grundlagenforschung zu Ionenfallen, Rydberg-Atomen und Quantenoptik https://www.mpq.mpg.de

MIT – Center for Quantum Engineering (CQE) Interdisziplinäre Forschung an Qubit-Design, Steuerung, Fehlerkorrektur https://cqe.mit.edu

University of New South Wales (UNSW), Australien Weltweit führend bei der Entwicklung von Donor-Qubits in Silizium https://www.cqc2t.org

QuTech (TU Delft & TNO, Niederlande) Entwicklung fehlertoleranter Quantenprozessoren auf Basis von Surface Codes https://qutech.nl

Microsoft StationQ Forschung an topologischen Qubits mit Majorana-Quasiteilchen https://www.microsoft.com/en-us/quantum

David DiVincenzo Formulierte die DiVincenzo-Kriterien zur Bewertung physikalischer Qubit-Systeme https://en.wikipedia.org/wiki/David_DiVincenzo

John Preskill (Caltech) Begründer des Begriffs „NISQ“ und führende Stimme in der Quanteninformationsforschung http://theory.caltech.edu/~preskill

EU Quantum Flagship Europäisches Leitprojekt zur Entwicklung aller Quantentechnologiebereiche https://qt.eu

NIST – National Institute of Standards and Technology (USA) Standardisierung, Benchmarking und Infrastruktur für Quantensysteme https://www.nist.gov/programs-projects/quantum-information

BMBF – Bundesministerium für Bildung und Forschung (Deutschland) Förderprogramme für Quantencomputer und Kommunikation, u. a. QSolid, ATIQ https://www.quantentechnologien.de

QuNET (Deutschland) Initiative zum Aufbau einer sicheren Quantenkommunikationsinfrastruktur in Deutschland https://www.bmbf.de/bmbf/shareddocs/kurzmeldungen/de/qunet.html