Linear-optische Quantencomputer (LOQC)

Linear-optische Quantencomputer (LOQC) markieren einen faszinierenden Schnittpunkt zwischen Quantenoptik, Informationstheorie und moderner Ingenieurskunst. Anstatt mit elektrisch geladenen Teilchen, Ionenfallen oder supraleitenden Schaltkreisen zu arbeiten, nutzt LOQC das wohl klassischste aller Quantenträgersysteme: Licht. Einzelne Photonen werden dabei als Informationsträger verwendet, durch optische Netzwerke geschickt, interferieren miteinander und werden am Ende mit extrem empfindlichen Detektoren ausgelesen.

In dieser Einleitung wird zunächst der Platz der Quantenoptik im weiteren Kontext der Quanteninformatik umrissen. Danach wird erklärt, warum ausgerechnet lineare Optik – also optische Elemente ohne starke Nichtlinearitäten – so viel wissenschaftliche Aufmerksamkeit auf sich zieht. Anschließend wird die Bedeutung der LOQC-Architektur für skalierbare Quantencomputer diskutiert. Zum Schluss folgt ein kurzer Überblick über den Aufbau der gesamten Abhandlung.

Kontext: Die Rolle der Quantenoptik in der modernen Quanteninformatik

Quantenoptik ist historisch gesehen eine der Disziplinen, in denen das quantenmechanische Verhalten von Systemen zuerst mit hoher Präzision sichtbar gemacht und kontrolliert wurde. Die Quantisierung des elektromagnetischen Feldes, die Beschreibung von Licht in Form von Photonen und das Verständnis von Emission, Absorption und Streuung waren zentrale Schritte der modernen Physik.

Mit dem Aufkommen der Quanteninformatik wurde schnell klar, dass Licht nicht nur ein Studienobjekt der Grundlagenphysik, sondern auch ein idealer Informationsträger sein kann. Photonen bewegen sich mit Lichtgeschwindigkeit, wechselwirken nur schwach mit ihrer Umgebung und sind daher außerordentlich robust gegenüber Dekohärenz. Das macht sie hervorragend geeignet für Quantenkommunikation, etwa in Glasfasern oder freien Raumkanälen, aber auch für bestimmte Formen des Quantenrechnens.

In optischen Systemen lassen sich fundamentale Bausteine der Quanteninformation relativ direkt realisieren:

  • Qubits können durch Polarisationszustände, Pfadmoden oder Zeit-Bin-Zustände einzelner Photonen kodiert werden.
  • Interferometer und Strahlteiler implementieren unitäre Transformationen, die mathematisch exakt den Operationen entsprechen, die ein Quantenalgorithmus benötigt.
  • Hochempfindliche Detektoren erlauben das Auslesen der quantenmechanischen Zustände mit geringer Fehlerrate.

Quantenoptik spielt daher zwei Rollen gleichzeitig: Sie dient als theoretische und experimentelle Plattform, um die Grundlagen der Quantenmechanik zu testen, und sie liefert die Bausteine für praktische Quantenprotokolle – etwa Quantenkryptographie, Teleportation, Quantenrepeater und eben auch linear-optische Quantencomputer.

Warum lineare Optik? Historische Entwicklung und wissenschaftliche Motivation

Auf den ersten Blick erscheint es paradox, dass man mit rein linearen optischen Elementen einen universellen Quantencomputer bauen kann. In der klassischen und auch in der nichtlinearen Optik sind starke Nichtlinearitäten die natürliche Quelle für Wechselwirkungen zwischen Lichtfeldern. Ohne solche Nichtlinearitäten scheinen logische Gatter, bei denen ein Photon den Zustand eines anderen kontrolliert, zunächst unerreichbar.

Der entscheidende Durchbruch kam Anfang der 2000er-Jahre mit dem Knill–Laflamme–Milburn-Schema. Die zentrale Idee besteht darin, nicht die physikalische Wechselwirkung zwischen Photonen selbst zu nutzen, sondern das Zusammenspiel von Interferenz und Messung geschickt auszunutzen. Lineare Optik, Hilfsphotonen, Projektivmessungen und Feed-Forward-Operationen reichen in Kombination aus, um effektive, probabilistische Zweiqubit-Gatter zu realisieren. Damit wurde gezeigt, dass lineare Optik, ergänzt durch Messung und klassische Steuerung, prinzipiell ausreichend ist, um universelles Quantenrechnen zu ermöglichen.

Historisch lässt sich die Entwicklung grob in drei Phasen einteilen:

  • Phase der Grundlagenexperimente in Quantenoptik
    Experimente zur Einzelphotonenerzeugung, zum Hong-Ou-Mandel-Effekt und zu Bell-Tests schufen das experimentelle Fundament: die Kontrolle einzelner Photonen und ihrer Interferenz.
  • Phase der konzeptionellen Quanteninformationsprotokolle
    Quantenkryptographie, Teleportation und frühe Vorschläge für optische Quantenlogik zeigten, dass Photonen nicht nur für Kommunikation, sondern auch für logische Operationen geeignet sind.
  • Phase der systematischen LOQC-Konzepte
    Schemata wie das Knill–Laflamme–Milburn-Protokoll, cluster-state-basiertes photonisches Quantenrechnen und die Entwicklung integrierter photonischer Schaltkreise führten zu realistischen Roadmaps für skalierbare Systeme.

Die wissenschaftliche Motivation für LOQC ist vielschichtig:

  • Theoretisch demonstriert LOQC, wie weit man mit scheinbar begrenzten Ressourcen (lineare Optik, Messung, Feed-Forward) kommen kann.
  • Praktisch nutzen LOQC-Architekturen Technologien, die aus der Telekommunikation und der integrierten Photonik bereits gut etabliert sind. Das erlaubt eine enge Kopplung an bestehende industrielle Fertigungsprozesse.
  • Zudem sind photonische Plattformen von Natur aus kompatibel mit Quantenkommunikationsnetzen, was langfristig integrierte Quantenrechner- und Quantenkommunikationssysteme ermöglicht.

Bedeutung der LOQC-Architektur für skalierbare Quantencomputer

Die zentrale Herausforderung der Quanteninformatik besteht nicht nur darin, einzelne Qubits zu kontrollieren, sondern Millionen bis Milliarden von Qubits präzise und fehlertolerant zu steuern. Skalierbarkeit ist das entscheidende Kriterium, an dem sich jede Architektur messen lassen muss.

LOQC bietet hier einige entscheidende Vorteile:

  • Natürliche Parallelität
    Optische Systeme erlauben von Natur aus die Verarbeitung vieler Moden gleichzeitig. Zahlreiche Photonen können in komplexen Interferometern über Hunderte von optischen Pfaden gleichzeitig propagieren. Diese inhärente Parallelität passt gut zum Charakter vieler Quantenalgorithmen, die mit großdimensionalen Hilberträumen arbeiten.
  • Integrationspotenzial auf Chips
    Fortschritte in der Siliziumphotonik und in der integrierten Optik ermöglichen es, Tausende von Strahlteilern, Phasenverschiebern und Wellenleitern auf einem einzigen Chip zu integrieren. Solche photonischen Prozessoren sind prinzipiell mit CMOS-Fertigungstechniken kompatibel, was langfristig eine industrielle Massenfertigung denkbar macht.
  • Geringe Dekohärenz
    Photonen koppeln nur schwach an ihre Umgebung. Sie sind nicht geladen, besitzen keine Ruhemasse und können über lange Distanzen bei Raumtemperatur kohärent propagieren. Das reduziert bestimmte Arten von Rauschen und Fehlern, mit denen andere Plattformen zu kämpfen haben.

Gleichzeitig ist LOQC mit spezifischen Herausforderungen konfrontiert:

  • Verluste in Quellen, Wellenleitern und Detektoren
    Jeder Verlust entspricht einem verlorenen Photon, also einem verlorenen Qubit. In großen Netzwerken können sich diese Verluste schnell aufsummieren und die Rechenleistung drastisch einschränken.
  • Probabilistische Gatter
    Viele der bisher realisierten logischen Operationen sind inhärent probabilistisch. Das bedeutet, dass ein Gatter nur mit einer gewissen Erfolgswahrscheinlichkeit funktioniert und ansonsten verworfen werden muss. Fehlerkorrektur und geeignete Architekturen sind nötig, um daraus ein verlässliches Rechensystem zu bauen.
  • Anforderungen an Synchronisation und Stabilität
    Für hochdimensionale Interferometer müssen optische Pfadlängen mit einer Genauigkeit im Bereich von Bruchteilen der Wellenlänge stabil gehalten werden. Gleichzeitig müssen Photonen aus verschiedenen Quellen exakt synchronisiert werden.

Trotz dieser Schwierigkeiten hat LOQC eine Schlüsselrolle in der Debatte um skalierbare Quantencomputer, weil es einen alternativen Pfad zur Realisierung großer, universeller Quantenprozessoren eröffnet – einen Pfad, der zu Teilen auf vorhandener Infrastruktur und industriell erprobten Technologien aufbaut.

Überblick über die Struktur der Abhandlung

Die vorliegende Abhandlung ist so aufgebaut, dass sie sowohl die physikalischen Grundlagen als auch die technologischen und konzeptionellen Aspekte linear-optischer Quantencomputer systematisch beleuchtet.

  • In Kapitel 2 werden die theoretischen Grundlagen der linear-optischen Quanteninformation eingeführt. Dort geht es um die quantenmechanische Beschreibung von Licht, um verschiedene photonische Kodierungen von Qubits und um die mathematische Darstellung linearer optischer Netzwerke.
  • Kapitel 3 widmet sich der Architektur und den Funktionsprinzipien von LOQC. Ausgehend von der Frage, was genau unter linear-optischer Quantenverarbeitung zu verstehen ist, werden zentrale Schemata wie das Knill–Laflamme–Milburn-Protokoll und messbasierte Ansätze vorgestellt.
  • In Kapitel 4 werden die wichtigsten Gatter und elementaren Bausteine beschrieben, die in LOQC eine Rolle spielen. Dazu zählen Ein- und Zwei-Qubit-Gatter, Multiphoton-Interferenzen und spezielle Konfigurationen für Boson-Sampling.
  • Kapitel 5 stellt die technologischen Plattformen und experimentellen Realisierungen vor. Der Fokus liegt auf integrierter Photonik, Einzelphotonquellen, Detektortechnologien und den praktischen Herausforderungen bei der Umsetzung großer optischer Netzwerke.
  • Kapitel 6 behandelt Fehlerkorrektur und Fehlertoleranz in LOQC. Dabei werden Konzepte für den Umgang mit Verlusten, Dekohärenz und probabilistischen Gattern diskutiert, ebenso wie verschiedene Codes und Architekturen, die für photonische Plattformen besonders relevant sind.
  • In Kapitel 7 werden konkrete Anwendungen linear-optischer Quantencomputer beleuchtet. Die Spannweite reicht von Boson-Sampling über Quantenkryptographie bis hin zu hybriden Architekturen, in denen LOQC mit anderen Quantenplattformen kombiniert wird.
  • Kapitel 8 nimmt die Skalierungsperspektive ein: Welche Strategien gibt es, um von heutigen Experimenten mit einigen Dutzend Photonen und Moden zu Systemen mit Hunderten oder Tausenden von logischen Qubits zu gelangen? Hier werden auch aktuelle Roadmaps von Forschungsgruppen und Unternehmen eingeordnet.
  • Kapitel 9 bietet eine kritische Bewertung. Es geht um Stärken, Grenzen und offene Kontroversen rund um LOQC, einschließlich der Frage, ob LOQC eher eine Nischenlösung oder ein zentraler Baustein künftiger Quanteninfrastrukturen sein wird.
  • Abschließend fasst Kapitel 10 die wichtigsten Erkenntnisse zusammen und wagt einen Ausblick auf die nächsten Jahrzehnte der Forschung im Bereich linear-optischer Quantencomputer.

Insgesamt soll die Abhandlung Leserinnen und Leser in die Lage versetzen, die zentrale Idee von LOQC zu verstehen, die wichtigsten technischen Konzepte einzuordnen und die Chancen und Grenzen dieser faszinierenden Architektur im Konzert der verschiedenen Quantencomputing-Plattformen zu bewerten.

Theoretische Grundlagen der Linear-optischen Quanteninformation

Die Linear-optische Quanteninformation basiert auf der quantenmechanischen Beschreibung des elektromagnetischen Feldes und der Möglichkeit, einzelne Photonen als Qubits zu verwenden. Dieses Kapitel führt die wichtigsten quantenoptischen Zustände ein, zeigt unterschiedliche Möglichkeiten zur Qubit-Kodierung und beschreibt die grundlegenden linearen optischen Elemente, die in LOQC eine zentrale Rolle spielen. Zudem werden mathematische Methoden zur Modellierung optischer Netzwerke erläutert und schließlich wird die Rolle der Bosonenstatistik diskutiert, insbesondere im Zusammenhang mit dem Hong-Ou-Mandel-Effekt. Ein Überblick über aktuelle Photonendetektoren rundet das Kapitel ab.

Quantenoptische Zustände: Fock-Zustände, kohärente Zustände, gequetschte Zustände

Die quantenmechanische Beschreibung von Licht beruht auf der Quantisierung des elektromagnetischen Feldes. In einem Modus des Feldes entspricht die Energie einem diskreten Spektrum, wobei jeder Energieeigenzustand ein Fock-Zustand ist. Ein Fock-Zustand \lvert n \rangle repräsentiert dabei einen Zustand mit genau n Photonen in einem bestimmten Modus. Für lineare optische Quantencomputer ist besonders der Zustand \lvert 1 \rangle, also ein einzelnes Photon, von zentraler Bedeutung, da er als grundlegender Informationsträger dient.

Neben Fock-Zuständen spielen kohärente Zustände eine wichtige Rolle, insbesondere in der theoretischen Optik und in vielen Lasersystemen. Ein kohärenter Zustand \lvert \alpha \rangle ist definiert als Eigenzustand des Feldzerstörungsoperators \hat{a} und hat die Eigenschaft, dass seine Photonenzahl einer Poisson-Verteilung folgt. Kohärente Zustände werden oft als „klassischste“ Zustände des Lichtfeldes betrachtet, da sie minimale Unschärfen besitzen und sich unter Zeitentwicklung ähnlich wie klassische Wellen verhalten.

Gequetschte Zustände hingegen reduzieren die Quantenfluktuationen in einer Feldquadratur unter das Standardquantumlimit. Ein gequetschter Vakuumzustand kann beispielsweise durch nichtlineare Prozesse wie parametrische Verstärkung erzeugt werden. Mathematisch wird ein gequetschter Zustand durch die Wirkung des Squeeze-Operators \hat{S}(r) beschrieben. Gequetschtes Licht ist relevant für ultrapräzise Messungen, etwa in Gravitationswellendetektoren, findet aber auch in bestimmten LOQC-Protokollen Verwendung, etwa in kontinuierlichen Variablen oder cluster-state-basierten Verfahren.

Die drei genannten Zustandsklassen bilden eine unverzichtbare Basis der quantenoptischen Zustandsbeschreibung:

  • Fock-Zustände als idealisierte Einzelphotonenzustände,
  • kohärente Zustände als klassische Lichtähnlichkeit,
  • gequetschte Zustände als Ressource für erhöhte Sensitivität und alternative Rechenmodelle.

Photonen als Qubits: Polarisation, Pfadmodus, Zeit-Bin-Encoding

Photonen eignen sich hervorragend als Träger von Quanteninformation, da die Freiheitsgrade des Lichtfeldes natürlich Qubit-Räume bilden. Die drei wichtigsten Kodierungsarten sind Polarisation, räumlicher Pfadmodus und Zeit-Bin-Encoding.

Die Polarisation eines Photons lässt sich als zweidimensionaler Zustand darstellen, bei dem beispielsweise die horizontalen und vertikalen Polarisationsrichtungen \lvert H \rangle und \lvert V \rangle den Basisvektoren eines Qubits entsprechen. Ein beliebiger Polarisationzustand lässt sich somit als Überlagerung \alpha \lvert H \rangle + \beta \lvert V \rangle darstellen.

Eine weitere Form der Kodierung besteht in der Nutzung räumlicher Pfadmoden. Ein Photon kann sich beispielsweise in einem Interferometer entlang zweier alternativer Wege bewegen. Dies entspricht einem Qubit mit den Basiszuständen \lvert 0 \rangle \equiv \lvert \text{Pfad A} \rangle und \lvert 1 \rangle \equiv \lvert \text{Pfad B} \rangle. Pfadkodierung ist besonders in integrierter Photonik verbreitet, da dort Wellenleiter sehr präzise kontrollierbar sind.

Zeit-Bin-Encoding schließlich nutzt temporale Superpositionen. Ein Photon wird so erzeugt, dass es sich in zwei zeitlich getrennten Fensterpositionen befindet, etwa \lvert \text{früh} \rangle und \lvert \text{spät} \rangle. Diese Methode ist in der Quantenkommunikation verbreitet, da Zeit-Bins sich robust gegenüber Dispersion und Polarisationsdrift verhalten.

Alle drei Kodierungsarten werden in LOQC eingesetzt und können je nach Architektur sogar kombiniert werden. Entscheidend ist die Fähigkeit, Interferenzen dieser Zustände kontrolliert zu erzeugen und zu manipulieren.

Lineare optische Elemente: Strahlteiler, Phasenverschieber, Polarisationsrotatoren

Linear-optische Quantencomputer stützen sich auf eine Reihe passiver optischer Bauelemente, die die Moden der Photonen skalierend transformieren. Zu den elementarsten Komponenten zählt der Strahlteiler. Ein idealer 50:50-Strahlteiler transformiert die Eingangsmoden \hat{a} und \hat{b} nach der Relation

<br /> \begin{pmatrix}<br /> \hat{a}' \<br /> \hat{b}'<br /> \end{pmatrix}</p> <p style="text-align: justify;">\frac{1}{\sqrt{2}}<br /> \begin{pmatrix}<br /> 1 & i \<br /> i & 1<br /> \end{pmatrix}<br /> \begin{pmatrix}<br /> \hat{a} \<br /> \hat{b}<br /> \end{pmatrix}.<br />

Diese Transformation ist unitär und bildet die Grundlage für das Interferenzverhalten von Photonen.

Phasenverschieber wirken auf einen einzelnen Modus und multiplizieren ihn mit einem Phasenfaktor e^{i\phi}. Ihre Wirkung lässt sich durch die Transformation \hat{a} \rightarrow e^{i\phi}\hat{a} beschreiben. Sie dienen zur Feineinstellung von Interferometern und zur Realisierung einqubitspezifischer Operationen.

Polarisationsrotatoren, etwa umgesetzt durch Wellenplatten, verändern die Polarisationsrichtung eines Photons. Eine Halbwellplatte kann beispielweise einen Zustand \lvert H \rangle in \lvert V \rangle drehen, während eine Viertelwellenplatte zirkulare Polarisationen erzeugt. Zusammen mit Polarisationsstrahlteilern ermöglichen sie die gezielte Manipulation von Polarisation-Qubits.

Diese Bauelemente bilden die Grundbausteine aller linear-optischen Netzwerke. Ihre Kombination in großen Interferometerstrukturen ermöglicht es, hochdimensionale unitäre Transformationen umzusetzen.

Mathematische Modellierung linear-optischer Systeme (Unitäre Matrizen, Interferometer)

Ein linear-optisches Netzwerk mit m Modi lässt sich durch eine m \times m-unitäre Matrix beschreiben. Jeder optische Baustein entspricht einer Matrix, und die Gesamttransformation ergibt sich aus der Matrixmultiplikation aller Einzelkomponenten. Ein Interferometer aus Strahlteilern und Phasenverschiebern kann somit als unitäre Abbildung U beschrieben werden, die auf die Erzeugungs- und Vernichtungsoperatoren wirkt:
\hat{a}'i = \sum{j} U_{ij}\hat{a}_j.

Ein wichtiges Resultat aus der Theorie linear-optischer Netzwerke ist der Satz von Reck et al., der zeigt, dass jede beliebige unitäre Transformation durch eine Abfolge von Strahlteilern und Phasenverschiebern realisiert werden kann. Dies bildet den theoretischen Unterbau für universelle Interferometerstrukturen.

Für photonische LOQC ist zudem die Beschreibung der Multi-Photonen-Amplituden relevant. Die Wahrscheinlichkeitsamplituden für den Übergang von einem Fock-Zustand in einen anderen hängen von den Permanenten bestimmter Untermatrizen des Interferometers ab. Genau diese Tatsache führt zu Komplexitätsklassen wie Boson-Sampling.

Rolle der Bosonenstatistik: Hong-Ou-Mandel-Effekt als Grundlage der LOQC

Die fundamentale Eigenschaft von Photonen als Bosonen ist ihre symmetrische Austauschstatistik. Diese äußert sich besonders eindrucksvoll im Hong-Ou-Mandel-Effekt, bei dem zwei identische Photonen auf einem Strahlteiler nicht unabhängig voneinander interferieren, sondern gemeinsam den gleichen Ausgang wählen.

Das Phänomen lässt sich mathematisch beschreiben, indem man den Zustand \lvert 1_a, 1_b \rangle durch die Strahlteiler-Transformation schickt. Die Ausgangsamplituden löschen sich für die Fälle, in denen die Photonen getrennte Ausgänge wählen, gegenseitig aus. Dies führt dazu, dass sich im Idealfall beide Photonen stets im selben Ausgang befinden. Der entsprechende Übergangsoperator ergibt sich aus den Permanenten der Transformationsmatrix.

Dieser Effekt ist mehr als nur ein optisches Kuriosum: Er bildet die Grundlage für viele LOQC-Protokolle. Ohne Mehrphotoneninterferenz wäre es nicht möglich, effektive Zwei-Qubit-Gatter durch Postselektion und Messung zu realisieren. Die Kontrolle über korrelierte Photonenpaare und interferierende Zustände ist damit ein zentrales Werkzeug der Quantenlogik in linearen optischen Systemen.

Photonendetektion: Von Avalanche-Photodioden zu supraleitenden Nanowire-Detektoren

Die Qualität eines LOQC-Systems hängt wesentlich von den Eigenschaften seiner Detektoren ab. Avalanche-Photodioden (APDs) waren lange Zeit die Standardlösung für Einzelphotonendetektion. Sie arbeiten im Geiger-Modus und können ein einzelnes eintreffendes Photon mit hoher Effizienz nachweisen, jedoch meist ohne Unterscheidung der Photonenzahl. Für anspruchsvolle LOQC-Protokolle ist die Fähigkeit, einzelne Photonen zu zählen, jedoch von hoher Bedeutung.

Thermische Detektoren wie Transition-Edge-Sensoren (TES) können Photonenzahlauflösung erreichen, sind jedoch auf Kryotechnik angewiesen und haben begrenzte Zeitauflösung. Die jüngste Entwicklung supraleitender Nanowire-Einzelphotonendetektoren (SNSPDs) hat einen bedeutenden Fortschritt gebracht. SNSPDs bieten hohe Effizienzen, extrem geringe Dunkelzählraten und schnelle Erholungszeiten. Ihre Funktionsweise basiert darauf, dass ein eintreffendes Photon in einem supraleitenden Draht einen kurzzeitigen normalleitenden Bereich erzeugt, der elektrisch ausgelesen wird.

Diese Technologie ist inzwischen ein Standardbaustein moderner photonischer Quanteninformationssysteme und bildet eine wesentliche Voraussetzung für die Skalierung großer LOQC-Netzwerke.

Architektur und Funktionsprinzipien von LOQC

Linear-optische Quantencomputer basieren auf der Manipulation von Photonen in optischen Netzwerken, die ausschließlich aus linearen Komponenten wie Strahlteilern, Phasenverschiebern und Polarisationsrotatoren bestehen. Im Gegensatz zu Plattformen, die auf starke physikalische Wechselwirkungen zwischen Quantenobjekten setzen, nutzt LOQC die Interferenz und die Statistik von Photonen, um logische Operationen zu realisieren. Dieses Kapitel erläutert, was linear-optisch im physikalischen Sinn bedeutet, stellt das Knill–Laflamme–Milburn-Schema vor und beschreibt die wesentlichen Mechanismen, die LOQC ermöglichen – von der Vorbereitung einzelner Photonen über Interferometrie bis hin zu Postselektion und Feed-Forward. Abschließend werden unterschiedliche photonische Quantenlogiken verglichen.

Was bedeutet „linear-optisch“? Abgrenzung zu nichtlinearen Verfahren

Linear-optische Systeme verwenden Komponenten, deren Verhalten sich durch lineare Transformationen des elektromagnetischen Feldes beschreiben lässt. Das bedeutet, dass optische Elemente die Eingangsfeldoperatoren gemäß
\hat{a}'i = \sum_j U{ij}\hat{a}_j
transformieren, wobei U eine unitäre Matrix ist. Diese Linearität bezieht sich auf die Feldoperatoren, nicht auf die Energieübertragung.

In klassischen optischen Systemen sind lineare Bauelemente extrem gut beherrscht. Strahlteiler, Wellenleiter und Phasenverschieber lassen sich präzise fertigen und modellieren. Der entscheidende Vorteil linear-optischer Systeme besteht darin, dass sie verlustarm, robust und gut in integrierte Plattformen übertragbar sind.

Nichtlineare Verfahren hingegen setzen auf optische Nichtlinearitäten, um Interaktionen zwischen Photonen zu erzeugen, etwa durch Kerr-Effekte, Four-Wave-Mixing oder χ(2)-Prozesse. Solche Nichtlinearitäten ermöglichen direkte photon-photon-Wechselwirkungen, die für deterministische Zwei-Qubit-Gatter notwendig wären, jedoch in realen Materialien meist extrem schwach sind. Deshalb sind sie experimentell schwer skalierbar.

Lineare Optik kombiniert mit Messprozessen ermöglicht es, effektive Nichtlinearitäten zu erzeugen, ohne physische Nichtlinearitäten im Material nutzen zu müssen. Genau dieser Mess-bedingte „Trick“ ist die Grundlage des LOQC-Prinzips.

Knill–Laflamme–Milburn (KLM)-Schema: Revolution durch Messbarkeits-basiertes Rechnen

Das KLM-Schema aus dem Jahr 2001 markierte einen Wendepunkt in der Quanteninformatik. Knill, Laflamme und Milburn zeigten, dass universelles Quantenrechnen allein mit linearen optischen Elementen, Hilfsphotonen, photonenzahlauflösenden Detektoren und klassischem Feed-Forward möglich ist.

Das KLM-Konzept beruht auf drei zentralen Ideen:

  • Nutzung von Hilfsphotonen
    Diese werden in Interferometern mit den eigentlichen Qubit-Photonen überlagert, wodurch interferenzbasierte Effekte ausgelöst werden, die kontrollierte Operationen ermöglichen.
  • Projektion durch Photonendetektion
    Die Messung spielt eine aktive Rolle. Bestimmte Messergebnisse bewirken, dass der Zustand der verbleibenden Photonen einem gewünschten logischen Gatter entspricht.
  • Klassische Feed-Forward-Operation
    Nach einem Messereignis werden bestimmte Korrekturen am System vorgenommen, etwa durch Phasenschieber. Damit wird der probabilistische Charakter des Gatters kontrolliert und in deterministische Abläufe überführt.

Das wohl bekannteste Beispiel ist das KLM-CNOT-Gatter. Es funktioniert probabilistisch mit einer Grundwahrscheinlichkeit, die sich durch geeignete Fehlerkorrektur und Kodierung auf nahezu deterministische Werte erhöhen lässt, jedoch auf Kosten eines hohen Ressourcenverbrauchs.

Mathematisch lässt sich ein KLM-Gatter als Transformation eines Multi-Photonen-Fock-Zustands beschreiben, bei dem die Übergangsamplituden aus Permanenten bestimmter Untermatrizen des Interferometers resultieren. Der entscheidende Punkt ist, dass das Gatter nur dann erfolgreich ist, wenn ein spezifisches Detektionsmuster beobachtet wird. Erfolgswahrscheinlichkeiten können durch erweiterte Netzwerke und mehr Hilfsphotonen verbessert werden.

Zustandsvorbereitung: Einzelphotonquellen, Quantenpunktsysteme, Parametric Down-Conversion

Kein LOQC-System funktioniert ohne qualitativ hochwertige Einzelphotonquellen. Drei zentrale Technologien werden häufig eingesetzt:

  • Parametric Down-Conversion (SPDC)
    Ein nichtlinearer Kristall erzeugt bei Bestrahlung mit einem Pump-Laser zwei korrelierte Photonen: das Signal- und das Idler-Photon. SPDC ist die am weitesten verbreitete Methode für Experimente, jedoch nicht deterministisch. Die abgestrahlte Photonenzahl folgt einer geometrischen Verteilung, und Mehrphotonenereignisse sind schwer zu unterdrücken.
  • Quantenpunktbasierte Einzelphotonquellen
    Quantenpunkte sind künstliche Atome in Halbleitermaterialien. Durch resonante Anregung können sie nahezu deterministische Einzelphotonemissionen erzeugen. Ihre Effizienz und Indistinguishability sind deutlich höher als bei SPDC, und sie eignen sich ideal für skalierbare photonische Chips.
  • Defektzentren in Festkörpern
    Systeme wie das Stickstoff-Vakanz-Zentrum (NV-Zentrum) in Diamant können ebenfalls einzelne Photonen emittieren, allerdings häufig mit geringerer spektraler Reinheit.

Eine perfekte Einzelphotonquelle müsste Photonen mit hoher Helligkeit, hoher Indistinguishability und minimalem Timing-Jitter liefern. Die Qualität der Quellen bestimmt maßgeblich die Skalierbarkeit jedes LOQC-Systems.

Realisierung von Gattern durch Interferometrie

Interferometrie ist das Herzstück aller linear-optischen Quantenoperationen. Die Wirkung eines Interferometers lässt sich durch eine unitäre Transformation U auf die Moden der Photonen beschreiben. Für ein m-Moden-System gilt:
\hat{a}'i = \sum_j U{ij} \hat{a}_j.

Einqubit-Operationen sind relativ einfach durch Kombinationen von Phasenverschiebungen und Strahlteilern implementierbar. Beispielsweise kann ein Mach-Zehnder-Interferometer jede beliebige unitäre Operation eines einzelnen Pfad-Qubits realisieren.

Zweiqubit-Gatter sind komplexer. Hier ist die Interferenz zweier Photonen notwendig, wie sie etwa im Hong-Ou-Mandel-Effekt auftritt. Das KLM-CNOT-Gatter verwendet eine ausgeklügelte Kombination aus:

  • Interferometern,
  • Hilfsphotonen,
  • photonenzahlauflösenden Detektoren,
  • Postselektion und Feed-Forward.

Ein zweites bekanntes photonisches Gatter ist das CZ-Gatter, das über identische Interferenzmuster und projektive Messungen implementiert wird.

Bedeutung von Postselektion und Feed-Forward-Mechanismen

Da photonische Gatter im LOQC-Kontext typischerweise probabilistisch arbeiten, wird die Auswertung der Messergebnisse ein zentraler Bestandteil des Prozesses. Postselektion bedeutet, dass nur diejenigen Ausgangszustände weiterverwendet werden, die einem gewünschten Detektionsmuster entsprechen.

Der Feed-Forward-Mechanismus ermöglicht es, Messergebnisse unmittelbar zu nutzen, um nachträgliche Korrekturen am Zustand vorzunehmen. Das kann Phasenverschiebungen oder Modusumschaltungen beinhalten. In mathematischer Form entspricht Feed-Forward der bedingten Anwendung einer Operation U_k, abhängig vom Messergebnis k.

Feed-Forward macht aus einem probabilistischen Gatter ein effektives deterministisches Verfahren – allerdings um den Preis zusätzlicher Photonen, zusätzlicher Interferometerstufen und sehr schneller elektronischer Rückkopplung.

Cluster-State Computing mit Photonen: Messbasiertes Quantenrechnen

Neben dem KLM-Schema existiert ein zweiter mächtiger Ansatz für LOQC: das cluster-state-basierte Quantenrechnen. Dabei wird ein hochgradig verschränkter Photonenzustand erzeugt – ein sogenannter cluster state. Durch sequenzielle Einzelqubitmessungen wird die gewünschte Rechenoperation ausgeführt.

Wichtige Eigenschaften:

  • Die Logikgatter sind in der Struktur des cluster states „einprogrammiert“.
  • Die tatsächliche Berechnung erfolgt durch Messung und Feed-Forward.
  • Die größte Herausforderung besteht in der Erzeugung großer cluster states, typischerweise durch photonische Fusionsgatter.

In LOQC werden cluster states häufig über wiederholte Interferenzen von Photonen aus mehreren Quellen erzeugt. Dabei spielen photonische Fusionsoperationen wie das Typ-I- und Typ-II-Fusionsgatter eine zentrale Rolle.

Vergleich: Deterministische vs. probabilistische photonische Quantenlogik

Photonische Quantencomputer können im Wesentlichen in zwei Kategorien unterteilt werden:

  • Deterministische photonische Quantenlogik
    Hier werden starke optische Nichtlinearitäten genutzt, etwa durch Kerr-Effekte oder gekoppelte Resonatoren. Solche Systeme sind theoretisch attraktiv, doch bisher experimentell extrem schwierig zu skalieren.
  • Probabilistische Quantenlogik (KLM, cluster-state-basiert)
    Diese Methoden sind experimentell realistischer, da sie nur lineare Optik erfordern. Allerdings basiert die Gatterausführung auf Wahrscheinlichkeiten kleiner als eins, sodass viele Wiederholungen und zusätzliche Ressourcen erforderlich sind.

Der wesentliche Vorteil probabilistischer Verfahren liegt in ihrer Kompatibilität mit existierenden photonischen Technologien. Ihr Nachteil ist der hohe Ressourcenbedarf und die Notwendigkeit effizienter Einzelphotonquellen und Detektoren.

Die aktuelle Entwicklung deutet darauf hin, dass skalierbare LOQC-Systeme wahrscheinlich eine Kombination aus deterministischen Quelltechnologien, probabilistischen Interferenzgattern und cluster-state-basierten Architekturen nutzen werden.

Wichtige Gatter und Bausteine für LOQC

In linearen optischen Quantencomputern wird Quantenlogik durch Interferenzen von Photonen realisiert. Die Bausteine unterscheiden sich dabei in entscheidender Weise von denen anderer Plattformen wie Ionenfallen oder supraleitenden Qubits. Während in jenen Systemen Zwei-Qubit-Gatter durch direkte physikalische Wechselwirkungen zwischen den Quantenobjekten entstehen, nutzt LOQC ausschließlich lineare optische Elemente, Messungen und Postselektion, um logische Operationen zu erzeugen. Dieses Kapitel beschreibt die wichtigsten Gatter- und Modulkomponenten, die in LOQC zum Einsatz kommen, und gibt einen Überblick über deren mathematische Grundlagen und experimentelle Umsetzung.

Qubit-Operationen und Phasenschieber

Einzelqubitoperationen sind in LOQC vergleichsweise einfach und zuverlässig realisierbar. Sie entsprechen mathematisch unitären Transformationen eines zweidimensionalen Hilbertraums, der etwa durch Polarisation, Pfadmoden oder Zeit-Bins eines Photons repräsentiert wird. In einem Pfadkodierungs-Schema entsprechen die Basiszustände \lvert 0 \rangle und \lvert 1 \rangle zwei verschiedenen räumlichen Moden eines Photons.

Ein allgemeines Einqubit-Gatter kann durch die Anwendung einer beliebigen 2 \times 2-Unitary realisiert werden. Eine solche Matrix lässt sich durch eine Sequenz von Strahlteilern und Phasenschiebern erzeugen. Beispielsweise kann der Mach-Zehnder-Interferometer folgende allgemeine Transformation realisieren:

<br /> U(\theta, \phi, \xi) =<br /> \begin{pmatrix}<br /> e^{i\xi} \cos \theta & e^{i\phi} \sin \theta \</p> <ul style="text-align: justify;"> <li>e^{-i\phi} \sin \theta & e^{-i\xi} \cos \theta<br /> \end{pmatrix}.<br />

Phasenschieber sind besonders wichtig, da sie die relative Phase zwischen zwei Moden verändern können. Die Operation eines Phasenschiebers auf einen Modus \hat{a} lautet:

<br /> \hat{a} \rightarrow e^{i\varphi} \hat{a}.<br />

Damit lassen sich alle Rotationen eines Einqubits vollständig erzeugen. Je nach Kodierung werden hierfür verschiedene physikalische Bauelemente verwendet:

  • Polarisation: Wellenplatten (Halb- und Viertelwellenplatten),
  • Pfadmoden: thermo-optische oder elektro-optische Phasenverschieber,
  • Zeit-Bin: Interferometer mit kontrollierten Pfadlängen.

Durch die hohe Präzision optischer Interferometer sind Einqubit-Operationen in LOQC typischerweise nahezu fehlerfrei realisierbar, was ein wesentlicher Vorteil photonischer Plattformen ist.

CNOT- und CZ-Gatter in der linearen Optik

Zwei-Qubit-Gatter stellen eine der größten Herausforderungen für LOQC dar, da Photonen nicht direkt miteinander wechselwirken. Der Schlüssel liegt in ihrer Interferenz und der Verwendung zusätzlicher Hilfsphotonen sowie projektiver Messungen.

Das Controlled-NOT-Gatter (CNOT) ist eines der zentralen Universal-Gatter in der Quanteninformatik. In LOQC kann das CNOT-Gatter nicht deterministisch, aber probabilistisch durch Interferenzeffekte und Postselektion implementiert werden. Das KLM-CNOT basiert auf folgenden Prinzipien:

  • Die beiden logischen Photonen (Control und Target) interferieren an einem Netzwerk aus Strahlteilern.
  • Hilfsphotonen werden eingefügt, um spezifische Interferenzmuster zu erzeugen.
  • Photonenzahlauflösende Detektoren messen bestimmte Ausgangsmoden.
  • Tritt ein bestimmtes Detektionsmuster ein, ist die gewünschte CNOT-Operation erfolgreich.

Mathematisch lässt sich ein photonisches CZ-Gatter (controlled-phase) durch folgende Transformation beschreiben:

<br /> \lvert 00 \rangle \rightarrow \lvert 00 \rangle, \quad<br /> \lvert 01 \rangle \rightarrow \lvert 01 \rangle, \quad<br /> \lvert 10 \rangle \rightarrow \lvert 10 \rangle, \quad<br /> \lvert 11 \rangle \rightarrow -\lvert 11 \rangle.<br />

In LOQC wird das CZ-Gatter häufig dem CNOT vorgezogen, da es sich durch Interferenz zweier Photonen an einem Strahlteiler in Kombination mit Hilfsmoden leichter realisieren lässt. Ein CNOT kann anschließend aus einem CZ kombiniert mit Einqubit-Rotationen gebaut werden.

Wichtig ist, dass die Erfolgswahrscheinlichkeit solcher Gatter ohne Zusatzressourcen sehr gering ist. Durch geeignete Kodierung und Fehlerkorrektur kann sie jedoch erhöht werden.

Heralded Gates: Warum sie entscheidend sind

Das Konzept des heralded gates ist für LOQC essenziell. Ein heralded gate ist ein Gatter, dessen Erfolg durch ein Detektionsereignis „heralded“, also angekündigt oder bestätigt wird. Das bedeutet:

  • Ein bestimmtes Detektionsmuster zeigt an, dass die gewünschte Operation erfolgreich war.
  • Nur in diesem Fall wird das Ergebnis weiterverwendet.
  • Schlägt das Muster fehl, wird der Zustand verworfen oder neu präpariert.

Heralding basiert typischerweise auf photonenzahlauflösender Detektion und ist unverzichtbar, um effektive Logikoperationen zu gewährleisten. Ohne diese Bestätigung wäre das Ergebnis unbrauchbar, da probabilistische Gatter andernfalls Fehloperationen unbemerkt propagieren würden.

Ein einfaches Beispiel für ein heralded gate ist der probabilistische photonische CZ-Operator basierend auf zwei-photonen-Interferenz. Je nach Ausgangsmessung weiß man, ob das Gatter erfolgreich war oder nicht.

Heralded gates führen zu einer Art „postselektiver Nichtlinearität“: Obwohl das optische System selbst linear ist, erzeugt die Messung eine effektive nichtlineare Projektion.

Multiphoton-Interferenzen in großen Interferometern

Die Komplexität linear-optischer Quantencomputer steigt rapide mit der Photonenzahl. Sobald mehrere Photonen gleichzeitig durch ein Interferometer laufen, entstehen hochdimensionale Interferenzmuster. Die Wahrscheinlichkeitsverteilungen für Ausgangszustände werden durch Permanenten bestimmter Untermatrizen der Transformationsmatrix bestimmt.

Die Berechnung permanenter Matrizen ist ein NP-schweres Problem, wobei für ein n \times n-Matrix die naive Berechnung O(n!) Operationen erfordert. Dies verleiht multiphotonischer Interferenz eine enorm hohe Komplexität und legt den Grundstein für Boson-Sampling.

Für LOQC wird diese Komplexität zum Vorteil: Die Interferenz vieler Photonen in großen Interferometern bildet die Basis für:

  • cluster-state-Erzeugung,
  • hochdimensionale Gatteroperationen,
  • bosonische Codes und Fehlerkorrektur,
  • Boson-Sampling-Zwischenschritte.

Große Interferometer können aus Dutzenden oder Hunderten von Strahlteilern und Phasenverschiebern bestehen. In integrierter Photonik lassen sich diese Systeme in Chipstrukturen mit hoher Stabilität realisieren, wodurch eine Skalierung möglich wird, die in Freiraumoptik kaum erreichbar wäre.

Photonische Boson-Sampling-Netzwerke als „Zwischenschritt

Boson-Sampling ist ein Rechenmodell, das wesentlich einfacher als universelles Quantenrechnen ist, aber dennoch Probleme lösen kann, die für klassische Computer sehr schwer oder praktisch unmöglich sind. Das Modell wurde ursprünglich eingeführt, um die Kraft multiphotonischer Interferenz in LOQC zu demonstrieren.

In einem Boson-Sampling-Experiment werden:

  1. n ununterscheidbare Einzelphotonen in ein m-Moden-Interferometer eingespeist,
  2. eine unitäre Transformation U angewendet,
  3. die Photonenzahlverteilung in den Ausgangsmoden gemessen.

Die resultierenden Wahrscheinlichkeiten hängen von Permanenten der Untermatrizen von U ab, was die Simulation klassisch extrem schwierig macht. Boson-Sampling gilt daher als ein realistischer Beweis für einen Quantenüberlegenheits-Effekt.

Warum ist Boson-Sampling für LOQC relevant?

  • Es zeigt, dass multiphotonische Interferenz außergewöhnliche Rechenleistung besitzt.
  • Es dient als Benchmark für photonische Geräte.
  • Es stellt einen Zwischenschritt zwischen experimenteller Grundlagenarbeit und skalierbarem LOQC dar.
  • Viele Technologien, die für Boson-Sampling entwickelt wurden, sind direkt für LOQC relevant: hochwertige Quellen, massive Interferometer, schnelle Detektoren.

Boson-Sampling ist daher kein vollwertiger Quantencomputer, aber ein wichtiger technologischer und theoretischer Meilenstein auf dem Weg zu skalierbaren linear-optischen Quantenprozessoren.

Technologische Plattformen und experimentelle Realisierungen

Die Umsetzung linear-optischer Quantencomputer erfordert hochpräzise technologische Plattformen, die in der Lage sind, Licht mit minimalen Verlusten zu leiten, Photonen zuverlässig zu erzeugen, interferieren zu lassen und zu detektieren. In jüngster Zeit haben Fortschritte in der integrierten Photonik, der Quantenoptik und der Kryotechnologie zu einer deutlichen Verbesserung der Skalierbarkeit und Stabilität photonischer Systeme geführt. Dieses Kapitel bietet einen umfassenden Überblick über die relevanten Plattformen, Komponenten und experimentellen Herausforderungen.

Wellenleiter-basierte Photonik (Siliziumphotonik, SiN-Plattformen)

Moderne LOQC-Systeme werden zunehmend in integrierter Photonik umgesetzt. Dabei nutzen photonische Chips Wellenleiterstrukturen, die Licht analog zu elektrischen Leitungen für Elektronen führen. Zwei Plattformen dominieren die Forschung:

Siliziumphotonik

Silizium bietet starke Brechungsindexkontraste und ermöglicht extrem kompakte Wellenleiter. Es ist zudem kompatibel mit der CMOS-Technologie, was Massenproduktion erlaubt. Siliziumphotonik zeichnet sich durch:

  • hohe Integrationsdichte,
  • präzise Strukturierung mittels Lithografie,
  • ausgezeichnete Kompatibilität mit Optoelektronik

aus.

Ein Nachteil ist jedoch die starke Absorption für Wellenlängen unterhalb bestimmter Schwellen sowie die Tatsache, dass Silizium keine effizienten nichtklassischen Lichtquellen erlaubt.

Siliziumnitrid (SiN)

SiN-Wellenleiter sind verlustärmer als Silizium, insbesondere für sichtbares und nahinfrarotes Licht. Sie haben geringere Streu- und Absorptionsverluste und eignen sich hervorragend für den Transport einzelner Photonen. SiN-Plattformen werden häufig für Interferometerstrukturen und photonische Netzwerke verwendet.

Wellenleiter-basierte Photonik bildet das Rückgrat aller modernen LOQC-Architekturen, da sie kompakt, stabil und skalierbar ist.

Integrierte photonische Chips: Miniaturisierung und Skalierbarkeit

Photonische Chips führen die Funktionalitäten klassischer Tischaufbauten – Strahlteiler, Spiegel, Modulatoren, Phasenschieber – in ein einziges, miniaturisiertes Substrat über. Die Vorteile dieser Integration umfassen:

  • Stabilität gegenüber äußeren Einflüssen (Temperatur, Vibrationen),
  • präzise Reproduzierbarkeit in der Herstellung,
  • Miniaturisierung komplexer optischer Netzwerke,
  • Energieeffizienz und geringe Verluste.

Wichtige Bauelemente integrierter photonischer Chips:

  • thermo-optische Phasenschieber, die durch lokale Erwärmung des Wellenleiters eine Phasenverschiebung erzeugen,
  • elektro-optische Modulatoren, basierend auf Pockels- oder Kerr-Effekten,
  • integrierte Strahlteiler, realisiert durch Multi-Mode-Interferometer,
  • integrierte Laser und Quellenmodule, die zunehmend Teil hybrider Chipdesigns werden.

Die Skalierbarkeit solcher Chips erlaubt Interferometernetze mit hunderten bis tausenden Moden, wie sie für Boson-Sampling oder cluster-state-basierte LOQC-Architekturen benötigt werden.

On-chip Interferometrie: Mach-Zehnder-Arrays und programmierbare lineare Netzwerke

Interferometrie ist ein zentraler Bestandteil aller photonischen Rechenarchitekturen. Auf Chips wird sie durch programmierbare Netzwerke umgesetzt, die vollständig aus Mach-Zehnder-Interferometern (MZI) bestehen.

Ein einzelner MZI implementiert eine beliebige 2 \times 2-Unitary. Komplexe Transformationen einer m-Moden-Eingabe lassen sich daher durch ein Gitter aus MZIs darstellen. Diese Netzwerke werden häufig in folgenden Architekturdesigns genutzt:

  • Reck-Zerlegung, die jede beliebige unitäre Matrix durch eine sequentielle Triangularisierung realisiert,
  • Clements-Zerlegung, die eine symmetrische, verlustärmere Implementierung ermöglicht.

Die Transformation eines MZI lautet:

<br /> U_{\text{MZI}} =<br /> \begin{pmatrix}<br /> e^{i\phi_1} \cos \theta & e^{i\phi_2} \sin \theta \</p> <ul style="text-align: justify;"> <li>e^{-i\phi_2} \sin \theta & e^{-i\phi_1} \cos \theta<br /> \end{pmatrix}.<br />

Durch programmierbare MZI-Arrays können photonische Chips beliebige Interferometerfunktionen übernehmen – von einfachen Gattern bis hin zu hochdimensionalen unitären Matrizen für Boson-Sampling.

Einzelphotonquellen: Quantenpunkte, Defektzentren, SPDC und Four-Wave-Mixing

Die Qualität und Zuverlässigkeit von Einzelphotonquellen bestimmt maßgeblich die Skalierbarkeit von LOQC-Systemen. Vier Klassen dominieren die Forschung:

Quantenpunkte

Quantenpunkte sind Halbleiternanostrukturen, die sich wie künstliche Atome verhalten. Sie bieten nahezu deterministische Emission einzelner Photonen durch resonante Anregung. Vorteile:

  • hohe Indistinguishability,
  • hohe Effizienz,
  • Integration in Chips möglich.

Herausforderung: Kryogene Temperaturen erforderlich.

Defektzentren (z.B. NV-Zentren in Diamant)

Diese Systeme besitzen stabile optische Übergänge, allerdings mit breiteren Linienbreiten. Sie sind robust, jedoch weniger ideal für skalierbare photonische Logik.

Spontane parametrische Down-Conversion (SPDC)

Ein Pump-Photon zerfällt in zwei korrelierte Photonen. Das Verfahren ist experimentell einfach, jedoch intrinsisch probabilistisch. Der erzeugte Zustand lautet typischerweise:

<br /> \lvert \psi \rangle = \sqrt{1 - \lambda^2} \sum_{n=0}^{\infty} \lambda^n \lvert n, n \rangle.<br />

Für Einzelphotonen muss der Parameter \lambda sehr klein sein, was die Quelle ineffizient macht.

Four-Wave-Mixing (FWM)

In photonischen Wellenleitern oder Fasern können Vierwellenmischprozesse genutzt werden, um Photonenpaare zu erzeugen. FWM ist kompatibel mit integrierter Photonik und ermöglicht hohe Emissionsraten.

Die Zukunft der LOQC-Photonquellen liegt voraussichtlich in Quantenpunkt-basierten, deterministischen Quellen, die sich mit photonischen Chips integrieren lassen.

Detektionstechnologien: SNSPDs, TES-Detektoren, multiplexierte Detektionsarchitekturen

Die Detektion einzelner Photonen mit hoher Effizienz und niedrigen Fehlerraten ist essenziell für LOQC. Moderne Detektortechnologien umfassen:

SNSPDs (Superconducting Nanowire Single-Photon Detectors)

Der Goldstandard der Einzelphotonendetektion. Vorteile:

  • Effizienz über 90 %,
  • extrem niedrige Dunkelzählrate,
  • schnelle Ansprechzeiten,
  • photonenzahlresolvierende Varianten verfügbar.

Ihr Funktionsprinzip basiert darauf, dass ein Photon einen supraleitenden Draht lokal in einen normalleitenden Zustand versetzt.

TES (Transition-Edge-Sensoren)

Thermische Detektoren, die präzise Photonenzahlauflösung liefern. Sie arbeiten nahe dem supraleitenden Übergangspunkt und messen die entstehende Temperaturerhöhung durch ein eintreffendes Photon. Nachteile sind langsame Reaktionszeiten und cryogene Anforderungen.

Multiplexierte Detektionsarchitekturen

Durch parallele Detektornetzwerke lassen sich mehrere photonische Ereignisse gleichzeitig analysieren. Sie sind wichtig für:

  • Boson-Sampling,
  • cluster-state-Generierung,
  • photonenzahlauflösende Operationen.

Fehlerraten, Verluste und Rauschen: Die zentralen praktischen Herausforderungen

Photonische Systeme leiden unter verschiedenen Verlust- und Fehlermechanismen:

  • Kopplungsverluste beim Übergang von Freiraum- auf Chipoptik.
  • Absorptionsverluste in Wellenleitermaterialien.
  • Streuverluste, verursacht durch Rauigkeit oder Herstellungstoleranzen.
  • Quellenrauschen, insbesondere Mehrphotonenemissionen bei SPDC.
  • Detektionsfehler, wie Dunkelzählungen oder unvollständige Photonenzahlauflösung.

Der Gesamtverlust kann durch eine effektive Transmission \eta beschrieben werden. In einem Interferometer mit L Komponenten ergibt sich häufig:

<br /> \eta_{\text{total}} = \eta_{\text{source}} \cdot \eta_{\text{waveguide}}^{L} \cdot \eta_{\text{detector}}.<br />

Diese Relation zeigt: Mit zunehmender Komplexität eines photonischen Netzwerks steigen die Verlustanforderungen exponentiell. Hier liegen die größten technologischen Herausforderungen für LOQC.

Temperatur- und Stabilitätsanforderungen (Kryotechnik, Vibrationsmanagement)

Viele photonische Quantenkomponenten benötigen stabilisierte Temperaturbedingungen:

  • Quantenpunkte und SNSPDs müssen bei Temperaturen im Bereich von wenigen Kelvin betrieben werden.
  • Integrierte Photonik benötigt thermische Stabilität im Bereich von Millikelvin, um Phasendriften zu minimieren.

Hinzu kommen:

  • Vibrationsmanagement, um optische Pfadlängen konstant zu halten.
  • Stabilisierung der Interferometer, etwa durch aktive Rückkopplung.
  • Pump-Laser-Stabilität, insbesondere für Quellen wie SPDC oder FWM.

Die Notwendigkeit von Kryotechnik stellt gegenwärtig noch einen praktischen Engpass dar, jedoch gibt es zunehmend Fortschritte in der miniaturisierten Kryotechnologie und der Integration optischer Systeme in kompakte Kälteplattformen.

Fehlerkorrektur und Fehlertoleranz in LOQC

Fehlerkorrektur ist eine Grundvoraussetzung für skalierbare Quantencomputer. In photonischen Systemen ist sie jedoch besonders herausfordernd, da viele Fehlermechanismen direkt zum Verlust des Qubits führen. Photonen sind flüchtig, wechselwirken kaum miteinander und sind als Informationsträger empfindlich gegenüber Verlusten in Quellen, Wellenleitern und Detektoren. Gleichzeitig eröffnen ihre bosonische Natur und die Struktur linear-optischer Netzwerke besondere Möglichkeiten zur Implementierung von Fehlerkorrektur. Dieses Kapitel beschreibt die zentralen Konzepte, Herausforderungen und Fortschritte der photonischen Fehlerkorrektur.

Warum ist Fehlerkorrektur bei Photonen besonders anspruchsvoll?

Photonen haben gegenüber anderen Qubits bestimmte Vorteile – etwa geringe Dekohärenz –, doch diese Vorteile bringen eigene Herausforderungen mit sich:

  • Verlust ist das dominierende Fehlermodell
    Während supraleitende oder ionische Qubits primär Dekohärenz oder gatebezogene Rauscheffekte aufweisen, verlieren photonische Systeme Qubits oft vollständig. Ein verlorenes Photon entspricht dem Zustand \lvert \text{Vac} \rangle, der nicht mehr in den ursprünglichen logischen Raum zurückgeführt werden kann, wenn keine geeignete Kodierung verwendet wird.
  • Probabilistische Gatter verstärken Fehlerquellen
    Viele LOQC-Gatter sind probabilistisch und erfordern Postselektion. Fehlgeschlagene Gatter führen zum Verlust oder zur Veränderung des Zustands, was wiederum Redundanz erzwingt.
  • Indistinguishability-Anforderungen
    Photonen müssen spektral, zeitlich und räumlich extrem gut übereinstimmen, damit Interferenzen funktionieren. Jede kleine Abweichung verschlechtert die Interferenzqualität und führt zu Fehlern.
  • Detektionsfehler
    Photonendetektoren sind hochentwickelt, aber nicht perfekt. Dunkelzählungen, ineffiziente Zählung oder fehlende Photonenzahlauflösung beeinflussen die Korrekturmechanismen.
  • Fehlende direkte photonische Wechselwirkung
    Ohne nichtlineare Effekte können logische Operationen nicht deterministisch durchgeführt werden, was overheadintensive Messmodelle benötigt.

Diese Gründe machen photonische Fehlerkorrektur besonders anspruchsvoll, aber auch besonders interessant, da neue Kodierungsarten und theoretische Werkzeuge nötig sind.

KLM-Fehlertoleranz: Das Konzept der „Teleportations-basierten Gatter

Das Knill–Laflamme–Milburn-Schema hat eine wesentliche Eigenschaft: Fehlerkorrektur ist integraler Bestandteil der Architektur.

Ein zentrales Konzept ist das teleportationsbasierte Gatter. Das Prinzip:

  • Man bereitet einen bestimmten, verschränkten photonischen Zustand vor, der als Ressourcenstate dient.
  • Das eigentliche Gatter wird nicht direkt auf das logische Photon angewendet, sondern über teleportationsartig gekoppelte Messprozesse.
  • Die Projektionsmessungen „korrigieren“ bestimmte Fehler, indem Messergebnisse anzeigen, welche Korrekturen vorzunehmen sind.
  • Klassisches Feed-Forward setzt die benötigten Phasenschaltungen oder Modusoperationen um.

Mathematisch lässt sich ein teleportationsbasiertes Gatter beschreiben, indem der Ressourcenstate als
<br /> \lvert \psi_{\text{res}} \rangle = \frac{1}{\sqrt{2}}(\lvert 00 \rangle + \lvert 11 \rangle)<br />
oder in erweiterten Kodierungen als stabilisierter Mehrphotonenzustand definiert wird.

Der zentrale Vorteil:

  • Verliert man ein Hilfsphoton, ist nur der Ressourcenstate betroffen, nicht das logische Qubit.
  • Korrekturmaßnahmen sind direkt in die Struktur des Gatters eingebettet.

In der KLM-Architektur ist Fehlerkorrektur daher kein Add-on, sondern ein integraler Bestandteil des logischen Designs.

Photonische Verlustkorrektur: Bosonische Codes, binäre Codes, GKP-Codes

Aufgrund des dominanten Verlustproblems sind photonische Quantencomputer besonders auf spezialisierte Fehlercodes angewiesen.

Bosonische Codes

Bosonische Codes nutzen Zustände eines einzelnen Modus, um logische Information zu speichern. Ein Beispiel ist die sogenannte „cat state“-Kodierung, die superpositionierte kohärente Zustände verwendet:

<br /> \lvert 0_L \rangle = \lvert \alpha \rangle + \lvert -\alpha \rangle, \quad<br /> \lvert 1_L \rangle = \lvert \alpha \rangle - \lvert -\alpha \rangle.<br />

Der Verlust eines Photons führt zu einer vorhersehbaren Veränderung, die korrigierbar ist.

Binäre photonische Codes

Binäre Codes nutzen mehrere Moden und Photonen, etwa eine Kodierung wie:

<br /> \lvert 0_L \rangle = \lvert 1,0 \rangle, \quad<br /> \lvert 1_L \rangle = \lvert 0,1 \rangle.<br />

Solche Kodierungen können ergänzt werden durch redundante Strukturen, die photonischen Verlust erkennbar machen.

GKP-Codes (Gottesman–Kitaev–Preskill)

Besonders vielversprechend sind GKP-Codes, die kontinuierliche Variablen nutzen. Ein logischer Codezustand ist eine Gitterstruktur im Phasenraum:

<br /> \lvert 0_L \rangle = \sum_{n} \lvert q = 2n\sqrt{\pi} \rangle, \quad<br /> \lvert 1_L \rangle = \sum_{n} \lvert q = (2n+1)\sqrt{\pi} \rangle.<br />

GKP-Codes können:

  • Verlustfehler erkennen,
  • Gaussian Noise korrigieren,
  • deterministisch implementiert werden,
  • cluster-state-basierte Architekturen stabilisieren.

Für photonische Plattformen sind GKP-Codes eine der vielversprechendsten Richtungen moderner Fehlertoleranz.

Fehlerschwellen und Skalierungsgrenzen

Wie bei allen Quantencomputern hängt die Skalierbarkeit photonischer Systeme davon ab, ob sich ein Fehlerkorrekturschema finden lässt, das unterhalb einer bestimmten Fehlerschwelle operiert. Typische Fehlerschwellen für photonische Systeme liegen:

  • für Verlust: zwischen 1 % und 10 % pro logischem Schritt,
  • für Interferometer-Fehler: im Bereich unter 0.1 rad Phasenfehler,
  • für Detektionsfehler: Effizienzen über 90 %, ideal über 98 %,
  • für Quellenqualität: Indistinguishability über 95 %.

Das Problem: Photonische Netzwerke bestehen aus sehr vielen Bauelementen. Bei einer komponentenweisen Effizienz von \eta und einem Netzwerk mit L Komponenten ergibt sich:

<br /> \eta_{\text{total}} = \eta^{L},<br />

was exponentiell abnimmt. Daher müssen:

  • Verluste pro Bauelement extrem klein sein,
  • Fehlerkorrektur möglichst früh implementiert werden,
  • photonische Cluster-States effizient erzeugt werden.

Die Skalierung hängt stark davon ab, wie gut deterministische Quellen und Detektoren integriert werden können.

Fortschritte durch topologische und cluster-state-basierte Verfahren

Topologische Verfahren und cluster-state-basierte Architekturen bieten neue Möglichkeiten, photonische Fehlerkorrektur effizient umzusetzen.

Cluster-State-Photonik
In diesem Modell wird ein großer, graphartig verschränkter Photonenzustand erzeugt. Logische Operationen erfolgen durch Einzelqubitmessungen, die je nach Ausgangsergebnis bestimmte Korrekturen benötigen.

Photonische Fusionsgatter (Typ I und II) ermöglichen die schrittweise Erzeugung großer cluster states. Jeder Fusionsschritt ist probabilistisch, doch mit genügend Redundanz können deterministische Strukturen erzeugt werden.

Topologische Codes
Topologische Fehlerkorrektur, wie der Oberflächenfehlercode, kann in photonischen Plattformen über graphentheoretische cluster states implementiert werden. Dabei werden logische Qubits topologisch geschützt, und Fehler manifestieren sich als Defekte im Graphen.

Ein cluster-state-basierter topologischer Code besitzt folgende Eigenschaften:

  • Verlusttoleranz bis zu etwa 50 % in idealisierten Modellen,
  • robuste Verarbeitung durch Messung,
  • hohe Kompatibilität mit integrierter Photonik.

Dies ist ein bedeutender Vorteil gegenüber herkömmlichen fehlertoleranten Architekturen, die meist Verlustschwellen unter 10 % aufweisen.

Anwendungen linear-optischer Quantencomputer

Linear-optische Quantencomputer entfalten ihr Potenzial in einer Vielzahl von Anwendungen, die vom reinen Rechnen über Kryptographie bis hin zu globalen Quantenkommunikationsnetzwerken reichen. Die Eigenschaften von Photonen – hohe Geschwindigkeit, geringe Wechselwirkung mit der Umgebung und natürliche Kompatibilität mit Kommunikationskanälen – machen LOQC besonders attraktiv für Aufgaben, bei denen Transport, Interferenz und Messungen von zentraler Bedeutung sind. Dieses Kapitel gibt einen systematischen Überblick über gegenwärtige und zukünftige Anwendungen.

Algorithmische Perspektive: Was kann LOQC besonders gut?

Auch wenn universelles, voll skalierbares LOQC noch als Zukunftsvision gilt, zeigen verschiedene algorithmische Analysen, dass photonische Plattformen in bestimmten Bereichen außergewöhnlich leistungsfähig sind.

  • Sampling-Probleme
    LOQC kann intrinsisch Probleme lösen, die auf der Berechnung oder Approximation von Permanenten beruhen. Da Permanenten klassisch extrem schwer zu berechnen sind, sind photonische Systeme für solche Aufgaben prädestiniert.
  • Quantenkommunikationsnahe Algorithmen
    Algorithmen, die auf Teleportation, Entanglement-Swapping oder Multiplexing basieren, sind natürlich kompatibel mit LOQC.
  • Graphentheoretische und Netzwerkalgorithmen
    Cluster-state-basierte photonische Rechner können Graphstruktur direkt nutzen, da vertikal verschränkte photonische Netzwerke sich gut in Graphen abbilden.
  • Kontinuierliche Variablen-Verarbeitung
    Bestimmte LOQC-Modelle, insbesondere solche mit gequetschten Zuständen und GKP-Kodierung, eignen sich gut für Gaussian Boson Sampling und Varianten kontinuierlicher Variablenalgorithmen.

Insgesamt zeigt sich: LOQC ist derzeit besonders stark bei Samplingproblemen, Kommunikationsaufgaben und messbasierten Algorithmen, die Messung und Interferenz als primäre Operationen verwenden.

Boson Sampling: Komplexitätstheoretische Bedeutung und experimentelle Meilensteine

Boson Sampling gilt als eine der bedeutendsten Anwendungen linear-optischer Systeme. Das Modell wurde 2011 eingeführt und basiert auf folgender Idee:

  • Man sendet n identische Photonen in ein zufälliges lineares Interferometer mit m Moden.
  • Anschließend misst man die Photonenzahlverteilung am Ausgang.
  • Die Wahrscheinlichkeiten der möglichen Ausgänge sind proportional zu den Permanenten bestimmter Untermatrizen der Transformationsmatrix.

Da die Berechnung einer Permanent selbst für moderate Dimensionen extrem schwierig ist (in der Komplexitätsklasse #P-schwer), ist Boson Sampling ein Beispiel für eine Aufgabe, die klassische Computer nicht effizient lösen können.

Experimentelle Meilensteine:

  • Frühe Experimente (2012–2013)
    Kleine Boson-Sampling-Setups mit drei bis fünf Photonen bestätigten die grundlegenden Interferenzeffekte.
  • Integrierte photonische Chips (2015–2020)
    Fortschritte in programmierbaren Interferometern führten zu Netzwerken mit dutzenden Moden und mehreren identischen Photonen.
  • Gaussian Boson Sampling (GBS)
    Eine Variante, bei der gequetschte Zustände statt einzelner Photonen verwendet werden. GBS wird heute aktiv als Benchmark für photonische Prozessoren genutzt.
  • Exponentielle Beschleunigung gegenüber klassischen Ansätzen (ab 2020)
    Experimente mit 50+ Photonen erreichten Bereiche, die klassisch unberechenbar sind.

Boson Sampling ist kein vollwertiger Quantencomputer, aber ein Schlüsselbeweis für die Leistungsfähigkeit und Skalierbarkeit photonischer Plattformen.

Quantenkryptographie und photonische LOQC-Submodule

Photonen bilden das physikalische Fundament der Quantenkryptographie. LOQC spielt hierbei eine wichtige Rolle, weil viele benötigte Operationen – etwa Interferenz, Phasenkontrolle und Detektion – direkt aus der linearen Optik stammen.

Typische photonische Submodule für Quantenkryptographie:

  • QKD-Systeme (Quantum Key Distribution)
    Protokolle wie BB84 verwenden Polarisation- oder Zeit-Bin-kodierte Photonen. LOQC-Komponenten – Wellenleiterchips, Detektoren, Interferometer – bilden stabile und integrierbare Plattformen.
  • Entanglement-basierte Kryptographie
    Bell-Pair-Quellen auf Chip-Basis erlauben robuste, skalierbare QKD-Systeme über große Distanzen.
  • Device-Independent QKD
    photonische Bell-Test-Setups, die auf LOQC-Elementen beruhen, testen Nichtlokalität und ermöglichen hochsichere Kommunikationsprotokolle.

Photonische Kryptographie profitiert besonders von der Fähigkeit photonic chips, modulare und skalierbare Sicherheitsmodule zu erzeugen.

Quantenkommunikationsnetzwerke und LOQC als Rechenknoten

Photonen sind das natürliche Medium für Quantenkommunikation. Daher werden LOQC-Plattformen zunehmend in Netzwerke eingebettet, die sowohl Rechnungen als auch Kommunikation ermöglichen.

LOQC kann in folgenden Netzwerkrollen agieren:

  • Entanglement-Swapping-Knoten
    Hier führt LOQC Messoperationen durch, um verschränkte Zustände über große Distanzen zu übertragen.
  • Quantum Repeaters
    Photonische Interferometer, gekoppelt mit Speicher- oder Kodierungsmodulen, können als Verstärkungs- und Stabilisierungseinheiten fungieren.
  • Rechnende Netzwerkstrukturen
    Cluster-state-basierte Photonik eignet sich hervorragend für graphbasierte Quantencommunication und Routing.
  • Kombinierte Rechner-Kommunikationssysteme
    LOQC kann als Kommunikationsmodul eines hybriden Quantencomputers dienen, z.B. zum Austausch verschränkter Zustände zwischen supraleitenden Qubits an entfernten Orten.

Photonik bietet somit einen natürlichen Weg, Rechen- und Übertragungsprotokolle miteinander zu verbinden.

Hybride Plattformen: Kombination von LOQC mit supraleitenden oder ionischen Systemen

Die Zukunft der Quanteninformatik wird mit hoher Wahrscheinlichkeit hybrid sein. LOQC kann mit anderen Plattformen kombiniert werden, um deren Stärken auszunutzen.

Mit supraleitenden Qubits:

  • Mikrowellen-Photonen können in optische Photonen konvertiert werden, um supraleitende Qubits über optische Netze zu verbinden.
  • LOQC dient als Transportmedium, während supraleitende Chips als Rechenkern fungieren.

Mit Ionenfallen:

  • Photonen können als Verbindung zwischen verschiedenen Ionenfallen-Prozessoren dienen.
  • Photonen ermöglichen entfernungsunabhängige Verschaltung ionischer Rechenmodule.

Mit mechanischen oder atomaren Systemen:

  • Optomechanische Schnittstellen ermöglichen Konversion zwischen Licht und mechanischen Anregungen.
  • Atomare Ensembles können photonische Cluster states speichern.

Der hybride Ansatz kombiniert:

  • robuste Rechenoperationen anderer Plattformen
  • mit der Übertragungsstärke und Modularität der Photonik.

Perspektive für universelles Quantenrechnen

Die entscheidende Frage lautet: Kann LOQC universelles Quantenrechnen vollständig ermöglichen?

Momentan sind folgende Entwicklungen vielversprechend:

  • Deterministische Einzelphotonquellen
    Quantenpunktbasierte Quellen erreichen hohe Indistinguishability, Effizienz und Wiederholraten.
  • Großskalige Interferometer
    Programmelemente wie die Reck- und Clements-Architektur ermöglichen vollständige unitäre Kontrolle in hunderten Moden.
  • Photonische Fehlerkorrektur
    GKP-Codes, topologische cluster states und redundante Boson-Codes bieten erstmals realistische Fehlerschwellen.
  • Programmable Photonic Processors
    Chips mit hunderten bis tausenden Mach-Zehnder-Einheiten sind bereits funktionsfähig und werden stetig optimiert.
  • Cluster-State-basierte universelle Modelle
    Mit ausreichenden Ressourcen können große, deterministische cluster states erzeugt werden, die universelle Einheitsoperationen durch Messung implementieren.

Langfristig könnte LOQC ein vollwertiger universeller Quantencomputer werden – insbesondere in Kombination mit hybriden Ansätzen, deterministischen Quellen und präzise kontrollierten photonischen Netzwerken.

Skalierungsstrategien und Zukunftsperspektiven

Die Zukunft linear-optischer Quantencomputer hängt maßgeblich von ihrer Fähigkeit ab, von heutigen Systemen mit einigen wenigen Photonen und Moden zu massiv skalierbaren Architekturen mit tausenden bis zehntausenden logischen Qubits zu gelangen. Während die Grundprinzipien von LOQC etabliert sind, erfordert Skalierung eine Kombination aus fortschrittlicher integrierter Photonik, effizienteren Quellen und Detektoren sowie neuartigen Fehlerkorrektur- und Kontrollmethoden. Dieses Kapitel beschreibt die wichtigsten Strategien, Technologien und internationalen Entwicklungen, die den Weg zu skalierbaren photonischen Quantencomputern ebnen.

Massive photonische Interferometer: 100–10.000 Modi

Eine der zentralen Skalierungsstrategien besteht in der Entwicklung großer Interferometer, die hunderte bis tausende optischer Moden kontrolliert transformieren können. Moderne photonische Chips integrieren Mach-Zehnder-Interferometer, Strahlteiler und Phasenschieber mit zunehmender Präzision.

Die Größe eines Interferometers wird durch die Anzahl der Moden m angegeben. Die zugehörige unitäre Transformation ist eine m \times m-Matrix. Die Komplexität steigt mit m^2 und der physikalische Ressourcenbedarf sogar noch stärker.

Heute existieren bereits programmierbare photonische Prozessoren mit einigen hundert Moden. Der Weg zu Interferometern mit 10.000 Moden erfordert:

  • extrem niedrige Verluste pro Bauelement,
  • weitgehend fehlerfreie Phasenkontrolle,
  • stabile thermische und elektrische Umgebungen,
  • hochpräzise Lithographie im Nanometerbereich.

Massive Interferometer bilden die Grundlage für large-scale Boson Sampling, die Erzeugung komplexer cluster states und letztlich universelles LOQC.

Photonic Fusion Gates und Großcluster-Erstellung

Cluster-state-basierte Photonik gilt als besonders vielversprechende Architektur für skalierbares LOQC. In diesem Ansatz bereitet man große verschränkte Photonennetze vor, auf denen anschließend die Rechenoperationen durch Messungen ausgeführt werden.

Die zentrale Technologie hierfür sind photonische Fusion Gates. Diese sind probabilistische Zwei-Photonen-Operationen, die zwei photonic qubits zu einem gemeinsamen cluster state verschmelzen.

Wesentliche Fusionstypen:

  • Typ-I-Fusionsgatter: einfache Interferenz zweier Photonen, gefolgt von Detektion; erzeugt oder erweitert cluster states.
  • Typ-II-Fusionsgatter: erzeugt robustere Verschaltungen und größere Graphstrukturen.

Da Fusion Gates probabilistisch sind, benötigt man:

  • viele identische Photonen,
  • parallele photonische Quellen,
  • Multiplexing-Systeme, die Photonen zeitlich und räumlich perfekt sortieren,
  • Fehlerkorrektur, um Verluste bei Fusionen zu kompensieren.

Die Realisierung großer cluster states hängt daher eng mit technologischen Durchbrüchen bei Quellen, Detektoren und Switch-Netzwerken zusammen.

Roadmaps von Forschungsgruppen und Industrien (PsiQuantum, Xanadu, University of Bristol u. a.)

Mehrere Unternehmen und Forschungseinrichtungen treiben photonische Quantencomputer systematisch voran.

PsiQuantum (USA/UK)

Ziel: Bau eines fehlertoleranten, millionen-Qubit photonischen Quantencomputers.
Strategie:

  • vollintegrierte Siliziumphotonik,
  • deterministische Einzelphotonquellen,
  • hohe Redundanz und Fehlerkorrektur,
  • große cluster-state-Architektur.

PsiQuantum setzt stark auf industrielle Fertigung (CMOS-kompatible Prozesse), um Skalierung zu ermöglichen.

Xanadu (Kanada)

Fokus: Gaussian Boson Sampling und kontinuierliche Variablen.
Kerntechnologien:

  • gequetschtes Licht,
  • Lithium-Niobat-on-Insulator-Chips,
  • GKP-Codes als langfristige Fehlerkorrekturstrategie.

Xanadu verfolgt einen hybriden Ansatz aus CV-Photonik und cluster-state-basiertem Rechnen.

University of Bristol (UK)

Pionier in integrierter Photonik für Quanteninformation.
Forschungsschwerpunkte:

  • chipbasierte Interferometer,
  • photonische Boson-Sampling-Systeme,
  • programmierbare lineare Netzwerke.

Weitere Akteure:

  • QuiX Quantum (NL): spezialisiertes Siliziumnitrid-Interferometer mit extrem niedrigen Verlusten.
  • MIT, Caltech, UChicago: Fortschritte in interferometrischer Kontrolle und photonischen Fehlerkorrekturen.
  • University of Vienna: Grundlagenexperimente zu Verschränkung, Cluster states und Fusion Gates.

Diese Roadmaps zeigen ein konsistentes globales Bestreben, photonische Quantencomputer industriell und akademisch voranzutreiben.

Herausforderungen: Verlust, Quellenqualität, Detektoreffizienz, Stabilität

Trotz großer Fortschritte steht LOQC vor mehreren zentralen Herausforderungen:

  • Verluste
    Jeder verlorene Photonenzustand bedeutet einen verlorenen logischen Zustand.
    Die Verlustanforderungen für skalierbare LOQC-Systeme sind äußerst streng (Gesamteffizienzen > 99 % pro Gatter).
  • Qualität der Einzelphotonquellen
    Anforderungen:

    • Indistinguishability > 95 %,
    • hohe Helligkeit,
    • möglichst deterministische Emission.

    SPDC ist zu probabilistisch, Quantenpunkte sind vielversprechend, aber schwer zu stabilisieren.

  • Detektoreffizienz und Photonenzahlauflösung
    SNSPDs haben hier enorme Fortschritte gebracht (Effizienzen > 90 %), jedoch bleiben Integration und Skalierung anspruchsvoll.
  • Interferometerstabilität
    Phasenstabilität muss im Bereich < 1 mrad liegen – eine enorme technische Herausforderung in großen Chips.
  • Synchronisation
    Bei parallelen Photonquellen müssen Jitter unterhalb von Pikosekunden liegen.

Ohne Lösungen für diese technischen Engpässe ist LOQC zwar möglich, aber nicht skalierbar.

Breakthrough-Technologien

Einige technologische Durchbrüche sind besonders vielversprechend:

deterministische Einzelphotonquellen

Zentrale Anforderungen:

  • Emission pro Trigger mit nahezu 100 % Wahrscheinlichkeit,
  • perfekte Indistinguishability,
  • Integration in Chips.

Quantenpunkte sind aktuell der beste Kandidat. Fortschritte bei resonanter Anregung, Nanokavitäten und Purcell-Verstärkung machen diese Technologie zunehmend praktikabel.

aktive Switch-Netzwerke

Für große cluster states wird dynamische Photonenzuordnung benötigt:

  • ultraschnelle elektro-optische Schalter (GHz-Bereich),
  • verlustarme Routing-Netzwerke,
  • photonische Pufferstrukturen.

Aktive Switch-Netzwerke ermöglichen Multiplexing und deterministische Photonenzusammenführung.

fehlerkorrigierte photonische Qubits

Langfristig entscheiden fehlerkorrigierte Qubits über die Skalierbarkeit.
Vielversprechend:

  • GKP-Codes für kontinuierliche Variablen,
  • redundante cluster states,
  • cat codes und andere bosonische Kodierungen.

Erste Experimente demonstrieren bereits stabilisierte logische photonische Operationen.

LOQC im Kontext der globalen Quantenstrategien (EU Quantum Flagship, USA NQI, China)

Photonik spielt eine Schlüsselrolle in den globalen Quantenstrategien:

EU Quantum Flagship

Betont photonikbasierte Quantenkommunikation, integrierte photonische Chips und Boson-Sampling als Leitprojekte.
Europa hat starke Positionen in:

  • Siliziumnitrid-Technologie (Niederlande),
  • photonischer Chipentwicklung (UK, Deutschland),
  • Detektionstechnologien (Österreich, Schweiz).

USA National Quantum Initiative (NQI)

Die USA setzen besonders auf:

  • kommerzielle Skalierung (PsiQuantum),
  • hybride photonisch-supraleitende Systeme,
  • bosonische Codes und neue Fehlerkorrekturmethoden.

China

China hat große Fortschritte im Bereich interferometrischer Boson-Sampling-Prozessoren gemacht. Einige der weltweit größten photonischen Interferometer stammen aus chinesischen Laboren.
Fokus:

  • großskalige gequetschte Lichtquellen,
  • massives Gaussian Boson Sampling,
  • integrierte Hochleistungsdetektoren.

Der globale Wettbewerb führt zu einer schnellen technologischen Entwicklung, die LOQC in den kommenden Jahren weiter vorantreiben wird.

Kritische Bewertung: Stärken, Grenzen und Kontroversen

Linear-optische Quantencomputer sind technisch elegant, theoretisch tief und experimentell äußerst anspruchsvoll. Sie stehen im Spannungsfeld zwischen beeindruckenden Demonstrationen – etwa Boson-Sampling oder großskalige interferometrische Chips – und harten physikalisch-technologischen Grenzen, insbesondere beim Thema Verlust und Fehlerkorrektur. In diesem Kapitel werden die Stärken und Schwächen von LOQC im Vergleich zu anderen Plattformen eingeordnet, die Debatte um die Realisierbarkeit universeller photonischer Quantencomputer skizziert und die aktuellen Experimente kritisch bewertet.

Vorteile gegenüber anderen Plattformen

LOQC besitzt eine Reihe von Eigenschaften, die es fundamental von Ionenfallen, supraleitenden Qubits oder neutralen Atomen unterscheiden – und ihm in bestimmten Bereichen klare Vorteile verschaffen.

Erstens sind Photonen ausgezeichnete Informationsträger. Sie sind nahezu unempfindlich gegenüber thermischer Umgebung, da sie keine Ruhemasse besitzen und nicht leicht mit phononischen Moden oder Störfeldern koppeln. Dekohärenz im klassischen Sinne – also das schleichende Verschwimmen eines Superpositionszustands in ein gemischtes Rauschen – spielt für propagierende Photonen eine deutlich geringere Rolle als für lokal gespeicherte Materie-Qubits.

Zweitens ist LOQC natürlich kompatibel mit Quantenkommunikation. Während andere Plattformen komplexe Schnittstellen benötigen, um ihre Qubits über größere Distanzen zu verbinden, ist LOQC bereits im physikalischen Design auf Übertragung ausgelegt. Dieselben photonischen Moden, die in einem Prozessor interferieren, können über Glasfasern oder Freiraumkanäle verschickt werden. Das eröffnet einen direkten Übergang von lokaler Quantenlogik zu verteilten Quantenrechnern und Netzwerken.

Drittens spielt die technologische Basis LOQC in die Hände: Integrierte Photonik baut auf Jahrzehnten Erfahrung aus Telekommunikation und optischer Signalverarbeitung auf. CMOS-kompatible Fertigungsprozesse, etablierte Lithografie und kombinierte optoelektronische Integration ermöglichen eine industrielle Skalierung, die andere Plattformen erst mühsam aufbauen müssen. Die Idee, einen Quantencomputer im Reinraum ähnlich wie klassische Prozessoren zu fertigen, ist bei photonischen Chips realistischer als bei vielen konkurrierenden Technologien.

Viertens sind Einqubit-Operationen in LOQC typischerweise extrem präzise. Interferometer und Phasenschieber lassen sich mit hoher Stabilität und Genauigkeit steuern, was niedrige logische Fehlerraten für einzelne Operationen ermöglicht. Viele Fehler entstehen nicht in den logischen Rotationen, sondern in Verlusten und Nichtidealitäten bei Quellen und Detektoren – ein anderer Fehlerinfrastrukturtyp als in vielen Materiequbit-Plattformen, bei denen gerade Gatterrauschen dominiert.

Schwächen: Verlustanfälligkeit, probabilistische Gatter, Komplexität

Die Kehrseite dieser Vorteile sind einige ausgesprochen harte Schwachstellen, die LOQC bislang daran hindern, einfach in den Bereich großer, voll universeller Systeme vorzustoßen.

Die wohl größte Schwäche ist die Verlustanfälligkeit. Jede optische Komponente – Wellenleiter, Koppler, Strahlteiler, Faseranschlüsse – trägt einen kleinen Verlust bei. In einem Netzwerk mit vielen Stufen multipliziert sich dieser Verlust. Ein Photon, das durch Dutzende oder Hunderte optischer Bauelemente laufen muss, hat daher nur eine endliche Überlebenswahrscheinlichkeit. Da ein verlorenes Photon einem zerstörten Qubit entspricht, wirkt Verlust unmittelbar auf die Rechenzuverlässigkeit.

Hinzu kommt, dass viele zentrale Gatter in LOQC naturgemäß probabilistisch sind. Ein typisches Zwei-Qubit-Gatter funktioniert nur dann korrekt, wenn ein bestimmtes Detektionsmuster auftritt. Die Erfolgswahrscheinlichkeit kann zwar durch zusätzliche Hilfsphotonen und komplexere Netzwerke erhöht werden, aber dies geschieht auf Kosten eines drastischen Ressourcenaufwands. Der Overhead an Photonen, Quellen und Gattern wächst schnell in Bereiche, die experimentell extrem anspruchsvoll sind.

Ein weiterer problematischer Punkt ist die Komplexität der Systemintegration. Theoretisch lassen sich beliebig große unitäre Matrizen durch Mach-Zehnder-Arrays realisieren. Praktisch aber bedeutet ein Interferometer mit einigen tausend Moden:

  • tausende Phasenschieber,
  • eine ebenso große Zahl an elektrischen Ansteuerkanälen,
  • Empfindlichkeit gegenüber thermischem und mechanischem Drift,
  • erhebliche Anforderungen an Kalibrierung und Echtzeitkontrolle.

Der Abstand zwischen dem mathematischen Modell eines idealen photonischen Netzwerks und einem realen Chip mit allen Imperfektionen ist erheblich. Diese Diskrepanz ist ein Grund, warum viele LOQC-Demonstrationen bislang eher im Regime spezialisierter Prototypen bleiben.

Debatte: Ist universelles LOQC realistisch oder bleibt die Nische dominierend?

Die Forschungsgemeinschaft ist sich nicht vollständig einig, welche Rolle LOQC im Endzustand der Quantencomputerlandschaft spielen wird. Es lassen sich grob zwei Positionen unterscheiden.

Auf der einen Seite stehen Optimisten, die LOQC als ernsthaften Kandidaten für universelle, fehlertolerante Quantenrechner sehen. Ihre Argumente:

  • Fortschritte bei deterministischen Einzelphotonquellen deuten darauf hin, dass das Quellenproblem lösbar ist.
  • Integrierte Photonik reduziert Verluste stetig und verbessert Stabilität.
  • Fehlerkorrekturkonzepte wie GKP-Codes und topologische cluster states sind besonders gut mit photonischen Systemen kompatibel.
  • Industrielle Player investieren massiv in LOQC-Roadmaps, was auf eine realistische technische Perspektive hinweist.

Auf der anderen Seite stehen Skeptiker, die LOQC eher als Spezialwerkzeug sehen, das bestimmte Rechenaufgaben und Kommunikationsaufgaben dominiert, aber im universellen Segment von supraleitenden Qubits, Ionenfallen oder neutralen Atomen überholt wird. Ihre Argumente:

  • Der Verlust- und Ressourcenoverhead sei fundamental schwer in den Griff zu bekommen.
  • Die Komplexität photonischer Fehlerkorrektur, insbesondere bei hohen Modenzahlen, sei deutlich größer als oft angenommen.
  • Andere Plattformen hätten bereits sehr konkrete Demonstrationen kleiner fehlertoleranter Logikblöcke gezeigt, während LOQC noch stärker auf konzeptioneller Ebene und in spezialisierten Experimenten verhaftet sei.

Vermutlich liegt die Wahrheit irgendwo dazwischen: LOQC wird sehr wahrscheinlich eine dominierende Rolle in Quantenkommunikation und verteilten Systemen spielen und könnte im Zusammenspiel mit anderen Plattformen – etwa als photonic front-end – universelle Strukturen mittragen. Ob ein rein photonischer Großrechner ohne hybride Elemente das Rennen macht, ist derzeit offen.

Einordnung der aktuellen Experimente und Skalierungsversprechen

Aktuelle Experimente zu LOQC und verwandten Konzepten haben beeindruckende Meilensteine erreicht: große Boson-Sampling-Demonstrationen, programmierbare Interferometer mit hunderten von Moden, hochqualitative Einzelphotonquellen auf Quantenpunktbasis und Detektoren mit Effizienzen nahe der Einheit.

Diese Ergebnisse zeigen klar, dass:

  • multiphotonische Interferenz in großen Netzwerken kontrollierbar ist,
  • integrierte Plattformen verlustarme, skalierbare Strukturen ermöglichen,
  • die wesentlichen physikalischen Prinzipien hinter LOQC experimentell beherrscht werden.

Gleichzeitig sollten Skalierungsversprechen mit einer gesunden Portion Realismus betrachtet werden. Viele Roadmaps, die den Weg zu millionen-logischen-Qubit-Systemen skizzieren, basieren auf Annahmen:

  • drastisch weiter reduzierter Verluste pro Bauelement,
  • nahezu perfekten Quellen und Detektoren,
  • hochentwickelter Fehlerkorrektur mit akzeptablen Overheads,
  • ausgeklügelten Multiplexing- und Switch-Netzwerken auf Chipebene.

Ob und wann all diese Bedingungen gleichzeitig erfüllt werden können, ist unklar. Die Vergangenheit der klassischen Halbleiterindustrie zeigt zwar, dass technologische Revolutionen über Jahrzehnte hinweg große Sprünge erlauben, aber im Quantenbereich sind die Toleranzen deutlich enger.

Insgesamt lassen sich die heutigen LOQC-Experimente als Beweis einer enorm leistungsfähigen, physikalisch sauberen Plattform verstehen, die in bestimmten Aufgaben bereits heute interessante Vorteile liefert. Ob daraus eine vollwertige, dominante Technologie für universelles Quantenrechnen erwächst oder ob LOQC sich primär als spezialisierte, netzwerkorientierte und sampling-starke Nischenplattform etabliert, ist eine der spannendsten offenen Fragen der aktuellen Quantenforschung.

Fazit

Linear-optische Quantencomputer stehen an einem faszinierenden Punkt zwischen theoretischer Eleganz, experimenteller Präzision und technologischer Herausforderung. Sie zeigen eindrucksvoll, dass Quantenrechnen nicht zwingend auf starken Wechselwirkungen beruhen muss – sondern dass Interferenz, Messprozesse und die statistische Natur von Photonen ausreichen, um logische Operationen zu erzeugen. Die bisherigen Entwicklungen haben LOQC zu einer der vielseitigsten Plattformen in der Quanteninformation gemacht, insbesondere dort, wo Kommunikation, Interferenz und großskalige Netzwerke im Vordergrund stehen. Dieses Kapitel fasst die wichtigsten Erkenntnisse zusammen, bewertet die zukünftige Bedeutung des Ansatzes und wagt einen Blick in die kommende Dekade.

Zusammenführung der zentralen Erkenntnisse

Im Verlauf der Abhandlung hat sich gezeigt, dass LOQC eine einzigartige Position in der Quanteninformatik einnimmt. Am Anfang steht die quantenoptische Beschreibung von Photonen als Qubits in verschiedenen Kodierungsformen – Polarisation, Pfadmoden, Zeit-Bins. Die grundlegenden Werkzeuge – Strahlteiler, Phasenschieber und Interferometer – ermöglichen lineare Operationen, die mathematisch präzise durch unitäre Matrizen beschrieben werden. Erst durch Messprozesse, insbesondere projektive photonische Detektion, entsteht eine effektive Nichtlinearität, welche die Realisierung von Zwei-Qubit-Gattern erlaubt.

Zu den bedeutendsten theoretischen Meilensteinen zählt das Knill–Laflamme–Milburn-Schema, das die Machbarkeit universeller Quantenlogik ohne materielle Nichtlinearitäten gezeigt hat. Ergänzt durch cluster-state-basierte Ansätze entsteht ein breites Repertoire an modularen, skalierbaren LOQC-Konzepten. Experimentell ermöglichen integrierte photonische Chips – auf Basis von Silizium, Siliziumnitrid oder Lithiumniobat – Interferometer mit hunderten Moden, deterministische Quantenpunktquellen und nahezu perfekte supraleitende Detektoren.

Die entscheidende Herausforderung bleibt jedoch der Verlust: photonische Systeme sind besonders anfällig für Absorption und Kopplungsverluste. Fehlerkorrekturkonzepte wie GKP-Codes, bosonische Kodierungen oder cluster-state-basierte topologische Verfahren dienen als vielversprechende Werkzeuge, um diese Schwachstellen zu adressieren.

Schließlich zeigt ein Blick auf die Anwendungen, dass LOQC vielseitig einsetzbar ist: von Boson Sampling und kontinuierlichen Variablen über Quantenkryptographie bis hin zu hybriden Rechner-Kommunikationsarchitekturen. Photonik ist heute bereits die dominierende Technologie für Quantenkommunikation und hat das Potenzial, Schlüsselrollen in verteilten Quantencomputingnetzwerken zu spielen.

Bedeutung von LOQC für die nächsten 10–20 Jahre Quantenforschung

In den kommenden zwei Jahrzehnten wird LOQC eine zentrale Rolle in mehreren Bereichen der Quantentechnologie einnehmen. Insbesondere drei Trends werden dominieren:

Photonische Netzwerke werden zur Grundstruktur globaler Quantenkommunikation.

Photonen sind das natürliche Medium für die Übertragung verschränkter Zustände über große Distanzen. Der Aufbau einer Quanteninternet-Infrastruktur hängt entscheidend von photonischen Technologien ab: Interferometer, Detektoren, Quellen, Repeater. LOQC liefert die Werkzeuge für verschränkte Netzwerkarchitekturen, Teleportations-basierte Protokolle und verteilte Quantenverarbeitung.

Sampling-basierte und hybride photonische Systeme werden einen realen Rechenvorteil demonstrieren.

Boson Sampling und Gaussian Boson Sampling haben bereits jetzt komplexitätstheoretische Relevanz. In Kombination mit programmierbaren photonischen Chips und hochpräzisen Detektoren wird LOQC in der Lage sein, spezifische Aufgaben jenseits klassischer Rechenkapazitäten zuverlässig auszuführen. Dieser Vorteil wird nicht universell sein, aber in bestimmten Bereichen – Optimierung, Molekül-Simulationsfragmente, graphbasierte Probleme – könnte LOQC früher relevant werden als andere Plattformen.

photonische Fehlerkorrektur wird ausgereift genug werden, um erste logische Qubits zu stabilisieren.

GKP-Codes, redundante cluster states und deterministische photonische Quellen können den Übergang von rein experimentellen Demonstrationen zu fehlertoleranten photonischen Modulen einleiten. Der Trend zu massiver Integration, aktiven Switch-Netzen und low-loss Photonik deutet klar darauf hin, dass photonische Fehlerkorrektur innerhalb der nächsten Dekade zu praktischen Experimenten führt.

Insgesamt wird LOQC in den nächsten 10–20 Jahren weniger als Ersatz für andere Quantenplattformen fungieren, sondern vielmehr als hochkomplementäre Technologie, die besonders bei Kommunikation, Routing, Sampling und hybriden Architekturen eine Schlüsselrolle spielt.

Ausblick: Wann sehen wir den ersten fehlerkorrigierten photonischen Quantencomputer?

Die Frage nach einem „Voll-LOQC-Quantencomputer“ mit vollständiger Fehlertoleranz ist eine der größten offenen Herausforderungen. Eine realistische Einschätzung hängt von mehreren technologischen Fortschritten ab:

  • deterministische Einzelphotonquellen mit nahezu perfekter Indistinguishability,
  • Interferometer mit Verlusten unter 0.1 dB über hunderte bis tausende Komponenten,
  • Detektoren mit Effizienzen über 98 % und vollständiger Photonenzahlauflösung,
  • stabile GKP- oder cluster-state-basierte logische Qubits,
  • aktive Switch-Netzwerke im GHz-Bereich zur effizienten photonischen Multiplexierung.

Erst die Verbindung dieser Elemente ermöglicht ein skalierbares, fehlertolerantes photonisches Rechensystem.

Ein realistischer Zeitplan könnte wie folgt aussehen:

  • in 5–8 Jahren: erste Logikoperationen auf voll fehlerkorrigierten photonischen Qubits (z.B. GKP-logische Gatter).
  • in 10–15 Jahren: cluster-state-basierte photonische Module, die mehrere logische Qubits stabil halten.
  • in 15–25 Jahren: ein proto-universeller photonischer Quantencomputer mit durchgehender Fehlerkorrektur und etwa 50–200 logischen Qubits.

Ob ein millionen-Qubit-photonischer Quantencomputer vollständig homogen „rein LOQC“ sein wird, bleibt unklar. Wahrscheinlich ist ein hybrides Modell, in dem photonische Logikmodule, Speicherbausteine (z.B. Atome, Ionen oder supraleitende Systeme) und Netzwerkkomponenten zusammenwirken.

Der Weg zu einem fehlerkorrigierten photonischen Quantencomputer ist lang, aber klar gezeichnet – und LOQC hat durch seine physikalische Natur und technologische Infrastruktur das Potenzial, ein fundamentales Element der künftigen Quantenlandschaft zu werden.

Mit freundlichen Grüßen
Jörg-Owe Schneppat


Literaturverzeichnis

Wissenschaftliche Zeitschriften und Artikel

Grundlagen der LOQC-Theorie und -Architektur

Knill, E., Laflamme, R., & Milburn, G. J. (2001).
A scheme for efficient quantum computation with linear optics.
Nature 409, 46–52.
https://doi.org/…

Kok, P., et al. (2007).
Linear optical quantum computing with photonic qubits.
Reviews of Modern Physics 79, 135–174.
https://doi.org/…

O’Brien, J. L. (2007).
Optical quantum computing.
Science 318, 1567–1570.
https://doi.org/…

Aaronson, S., & Arkhipov, A. (2011).
The computational complexity of linear optics.
Theory of Computing 9(4), 143–252.
https://doi.org/…

Photonenquellen und Interferenz

Somaschi, N., et al. (2016).
Near-optimal single-photon sources in the solid state.
Nature Photonics 10, 340–345.
https://doi.org/…

Senellart, P., Solomon, G., & White, A. (2017).
High-performance semiconductor quantum-dot single-photon sources.
Nature Nanotechnology 12, 1026–1039.
https://doi.org/…

Hong, C. K., Ou, Z. Y., & Mandel, L. (1987).
Measurement of subpicosecond time intervals between two photons by interference.
Physical Review Letters 59, 2044–2046.
https://doi.org/…

Boson Sampling

Spring, J. B., et al. (2013).
Boson sampling on a photonic chip.
Science 339, 798–801.
https://doi.org/…

Broome, M. A., et al. (2013).
Photonic boson sampling in a tunable circuit.
Science 339, 794–798.
https://doi.org/…

Clifford, P., & Clifford, R. (2018).
The classical complexity of boson sampling.
Proceedings of the 2018 Annual ACM-SIAM Symposium on Discrete Algorithms (SODA).
https://arxiv.org/…

Integrierte Photonik & Interferometerdesign

Clements, W. R., et al. (2016).
Optimal design for universal multiport interferometers.
Optica 3, 1460–1465.
https://doi.org/…

Silverstone, J. W., et al. (2016).
Silicon quantum photonics.
Photonics Research 3(5), 279–295.
https://doi.org/…

Fehlerkorrektur & photonische Codes

Gottesman, D., Kitaev, A., & Preskill, J. (2001).
Encoding a qubit in an oscillator.
Physical Review A 64, 012310.
https://doi.org/…

Vaidya, V., et al. (2020).
Broadband quadrature-squeezed vacuum and its application to quantum error correction.
Science Advances, 6(22).
https://doi.org/…

Fukui, K., et al. (2018).
High-threshold fault-tolerant quantum computation with analog quantum error correction.
Physical Review X 8, 021054.
https://doi.org/…

Cluster States & messbasiertes Quantenrechnen

Raussendorf, R., & Briegel, H. J. (2001).
A one-way quantum computer.
Physical Review Letters 86, 5188–5191.
https://doi.org/…

Walther, P., et al. (2005).
Experimental one-way quantum computing.
Nature 434, 169–176.
https://doi.org/…

Bücher und Monographien

Standardwerke Quantenoptik / Photonik

Gerry, C., & Knight, P. (2005).
Introductory Quantum Optics.
Cambridge University Press.
https://www.cambridge.org/…

Loudon, R. (2000).
The Quantum Theory of Light.
Oxford University Press.
https://global.oup.com/…

Mandel, L., & Wolf, E. (1995).
Optical Coherence and Quantum Optics.
Cambridge University Press.
https://www.cambridge.org/…

Quanteninformation & LOQC

Nielsen, M. A., & Chuang, I. (2010).
Quantum Computation and Quantum Information.
Cambridge University Press.
https://www.cambridge.org/…

Dowling, J. P., & Milburn, G. J. (2003).
Quantum Technology: The Second Quantum Revolution.
Taylor & Francis.
https://doi.org/…

Kok, P., & Lovett, B. (2010).
Introduction to Optical Quantum Information Processing.
Cambridge University Press.
https://www.cambridge.org/…

Photonische Chips & integrierte Optik

Soref, R. (2016).
Silicon Photonics: A Guide to Materials and Devices.
Springer.
https://doi.org/…

Pavesi, L., & Lockwood, D. J. (Eds.). (2016).
Silicon Photonics III.
Springer.
https://link.springer.com/…

Online-Ressourcen und Datenbanken

Preprint-Server / research hubs

arXiv – Quantum Physics (quant-ph)
https://arxiv.org/…

Quantum Journal – Open-access platform
https://quantum-journal.org

Industrielle Whitepapers / technische Reports

PsiQuantum – Technical Vision & Roadmap
https://psiquantum.com/…

Xanadu – Photonic Quantum Computing Papers & GBS Library
https://xanadu.ai/…

QuiX Quantum – Siliziumnitrid-basierte Interferometerchips
https://quixquantum.com

EU & nationale Quantenprogramme

EU Quantum Flagship
https://qt.eu/

National Quantum Initiative (USA)
https://www.quantum.gov/

China National Laboratory for Quantum Information Science
https://www.cas.cn (chinesische Akademie der Wissenschaften)

Photonik & Optik-Datenbanken

Optica (ehemals OSA) – vollständige Paperzugänge zu Optik- und Photonikforschung
https://opg.optica.org/

SPIE Digital Library
https://www.spiedigitallibrary.org/

Nature Photonics
https://www.nature.com/…