Quantum Kernel Methods for Data Transformation

Kernidee quantenbasierter Datenanalyse ist die Einbettung klassischer Datenpunkte x \in \mathbb{R}^d in hochdimensionale Zustandsräume eines Quantenregisters. Dies geschieht über eine datenabhängige unitäre Abbildung U_\phi(x), die einen Referenzzustand in einen quantenmechanischen Feature-Vektor transformiert: |\phi(x)\rangle = U_\phi(x),|0\rangle^{\otimes n}. Die resultierenden inneren Produkte \langle \phi(x)|\phi(x')\rangle definieren einen Quantenkernel K(x,x'), der nichtlinear und hochgradig ausdrucksstark sein kann, ohne dass die explizite Feature-Konstruktion im klassischen Sinn notwendig wäre. Interferenz und Verschränkung erzeugen dabei Feature-Räume, die klassisch nur mit erheblichem Ressourcenaufwand zugänglich wären.

Relevanz für Big Data, KI, maschinelles Lernen und komplexe Optimierungsprobleme

In vielen Anwendungen entscheidet die Qualität der Repräsentation über den Lernerfolg. Quantum Kernel Methods adressieren genau diese Repräsentationsfrage, indem sie potenziell reiche, nichtlineare Strukturen zugänglich machen. Für Klassifikation, Regression, Clustering und Anomalieerkennung können Quantenkernel die Trennbarkeit komplexer Muster erhöhen, wodurch Modelle mit geringerer Komplexität bessere Generalisierung erreichen. In Optimierungsproblemen kann die Gestaltung geeigneter Feature-Maps die Landschaft des Lernproblems glätten oder separierbare Strukturen sichtbar machen. Mathematisch sprechen wir von einem Reproduzierbaren-Kernel-Hilbertraum, in dem Lernalgorithmen mit regulierten Zielfunktionen operieren, etwa über \min_{\mathbf{w}} \ \lambda |\mathbf{w}|_{\mathcal{H}}^2 + \sum_i \ell(y_i, f(x_i)) mit f(\cdot) aus der durch K induzierten Hypothesenklasse.

Brücke zwischen klassischer Kernel-Methode und Quantencomputing

Klassische Kernel-Methoden nutzen den Kernel-Trick K(x,x') = \langle \phi(x), \phi(x') \rangle, um lineare Modelle im Merkmalsraum effizient zu trainieren. Quantum Kernel Methods setzen an derselben Stelle an, ersetzen aber \phi(x) durch einen quantenmechanischen Zustand |\phi(x)\rangle. Wichtig ist, dass die Evaluation des Kernels physikalisch als Schätzproblem formuliert werden kann, etwa über Overlap-Schaltkreise oder das sogenannte Swap-Test-Protokoll. Dadurch entsteht eine operative Brücke: das Lernproblem bleibt klassisch formulierbar (z.B. Support Vector Machines ), während die Kernelberechnung auf Quantenhardware ausgelagert wird.

Zielsetzung und Forschungsfrage

Wie können Quantum Kernel Methods Datenräume effizient transformieren?

Ziel dieser Abhandlung ist es, präzise zu untersuchen, unter welchen Bedingungen Quantenfeature-Maps eine vorteilhafte Transformation klassischer Daten induzieren. Effizienz bemisst sich dabei an drei Achsen: Rechenzeit für Kernel-Evaluation, notwendige Qubit-Anzahl und statistische Effizienz (Generalisierung). Formal betrachten wir Abbildungen \phi: \mathbb{R}^d \to \mathcal{H}, die durch parametrisierte Schaltkreise U_\phi(x) implementiert werden, und analysieren den resultierenden Kernel K_\phi(x,x') = |\langle \phi(x)|\phi(x')\rangle|^2. Eine zentrale Frage lautet: Für welche Datenverteilungen und Aufgaben führt K_\phi zu margin-reichen Trennflächen, sodass Lernalgorithmen mit Regularisierung \lambda geringe Generalisierungsfehler \mathcal{E}_{\text{gen}} erreichen?

Bedeutung für Klassifikationsprobleme und Feature-Engineering

Im klassischen Setting wird Feature-Engineering oft manuell oder mittels representation learning durchgeführt. Quantum Kernel Methods verschieben diesen Aufwand in die Konstruktion der Feature-Map, also in die Wahl von Gate-Folgen, Parametern und Einbettungsschemata (Angle-, Amplituden- oder Basis-Encoding). Die Hypothese: Bestimmte physikalisch motivierte Nichtlinearitäten (etwa durch mehrlagige Rotationen und kontrollierte Phasen) können Klassenstrukturen linear separierbar machen. Ein Beispiel ist die Nutzung von Rotationsgattern, die komponentenweise Daten über R_y(\alpha x_j) und R_z(\beta x_j) in den Zustandsraum schreiben, ergänzt um Entangling-Blöcke \mathrm{CZ} oder \mathrm{CNOT}, um nichtlokale Korrelationen zu kodieren.

Potenzial für neue Paradigmen in der Informationsverarbeitung

Jenseits der reinen Kernel-Evaluation eröffnet die Quantenperspektive neue Paradigmen: Daten können als Zustände behandelt werden, die durch physikalische Prozesse transformiert werden. Dadurch wird der Begriff der Datenvorverarbeitung operationalisiert als Sequenz unitärer Operationen. Die Lernpipeline lässt sich hybrid denken: quantenmechanische Transformationen gefolgt von klassischen Optimierungsroutinen. Theoretisch interessant ist die Frage, ob es Klassen von Problemen gibt, für die jede effiziente klassische Approximation von K_\phi zu inakzeptablen Fehlern führt, während die quantenmechanische Evaluation präzise bleibt. Solche Trennungen würden die spezifische Stärke der Methode klar abgrenzen.

Aufbau der Abhandlung

Methodische Struktur und thematische Schwerpunkte

Die Abhandlung gliedert sich in vier methodische Blöcke. Zunächst werden klassische Kernel-Methoden rekapituliert, inklusive Regularisierung, Margin-Analytik und Komplexitätsmaßen, um eine gemeinsame Sprache zu etablieren. Darauf folgt die quantenmechanische Grundlegung: Zustandsräume, unitäre Dynamik, Messstatistik und die Definition quantenmechanischer Kernel über Überlapp-Amplituden. Im dritten Block werden konkrete Feature-Maps und Schaltkreisarchitekturen vorgestellt, die Daten in hochdimensionale, verschränkte Zustände abbilden. Abschließend wird die Brücke zur Praxis geschlagen: Implementierungsdetails auf NISQ-Hardware, Rauschmodelle, Resampling-Strategien und Benchmarking gegen klassische Baselines.

Zur Orientierung seien exemplarische Kenngleichungen genannt: Der harte Margin in SVM-Formulierung ergibt sich aus \max_{\mathbf{w}, b} \ \frac{1}{|\mathbf{w}|} \quad \text{mit} \quad y_i(\mathbf{w}^\top \phi(x_i) + b) \ge 1. In der Kernel-Dualform werden nur innere Produkte benötigt: \max_{\boldsymbol{\alpha}} \ \sum_i \alpha_i - \frac{1}{2} \sum_{i,j} \alpha_i \alpha_j y_i y_j K(x_i,x_j) mit Nebenbedingungen \alpha_i \ge 0 und \sum_i \alpha_i y_i = 0. Setzt man K = K_\phi, genügt die Evaluierung quantenmechanischer Overlaps, während das Optimierungsproblem klassisch gelöst wird.

Verbindung von theoretischen Grundlagen und praktischen Anwendungen

Jede theoretische Komponente wird in einen praktischen Kontext eingebettet. Bei der Vorstellung von Encoding-Strategien wird erläutert, warum Angle-Encoding in niedrigen Dimensionen robust und implementierbar ist, während Amplituden-Encoding hohe Kompressionsvorteile verspricht, jedoch Vorverarbeitung erfordert, da |x|_2-Normalisierung und Zustandsvorbereitung nicht trivial sind. Bei Entangling-Mustern wird diskutiert, wie Tiefe und Konnektivität die Expressivität des Kernels beeinflussen und wie Rauschen die Schätzung \widehat{K}(x,x') verzerrt. Für die Evaluation werden Metriken wie Genauigkeit, F1-Score und die flächengewichtete ROC-Kennzahl verwendet, ergänzt um Lernkurven \text{Fehler}(m) in Abhängigkeit der Stichprobengröße m und Konfidenzintervallen aus Bootstrapping.

Ein besonderer Fokus liegt auf der Frage der Generalisierbarkeit. Über Rademacher-Komplexität und Margin-basierte Schranken lässt sich argumentieren, wann ein reichhaltiger Quantenkernel nicht zur Überanpassung führt. Intuitiv verbessert ein großer effektiver Margin \gamma die Fehlerschranken typischer Form \mathcal{E}_{\text{gen}} \lesssim \mathcal{O}!\left(\frac{1}{\gamma^2 m}\right), wobei die genaue Konstante von der Komplexität der Hypothesenklasse abhängt. Die Diskussion wird mit experimentellen Szenarien verknüpft, in denen synthetische Datensätze mit kontrollierter Nichtlinearität und reale Benchmarks (z.B. Molekül-Klassifikation) herangezogen werden.

Zum Abschluss des Einleitungskapitels ist das Ziel klar umrissen: die systematische, theoriegestützte und empirisch validierte Erkundung, inwiefern Quantum Kernel Methods als Transformationswerkzeug für Datenräume fungieren können, welche architektonischen Designentscheidungen dabei entscheidend sind und wie die unvermeidlichen Limitierungen aktueller Hardware den praktischen Nutzen beeinflussen.

Theoretische Grundlagen der Kernel-Methoden

Klassische Kernel-Methoden in der Datenanalyse

Grundidee: Ähnlichkeitsmessung im Merkmalsraum

Kernel-Methoden sind ein zentrales Konzept des modernen maschinellen Lernens und basieren auf der Idee, Datenpunkte nicht direkt im ursprünglichen Eingaberaum zu vergleichen, sondern in einem höherdimensionalen Merkmalsraum. Anstatt explizit eine Merkmalsabbildung \phi(x) zu berechnen, nutzt man eine Kernel-Funktion K(x, x'), die das Skalarprodukt dieser Merkmalsabbildungen effizient bestimmt. Damit lässt sich lineares Lernen im Merkmalsraum durchführen, während die Rechenoperationen weiterhin im Eingaberaum bleiben.

Diese Technik erlaubt es, hochgradig nichtlineare Strukturen zu modellieren, ohne dass der Algorithmus direkt mit den erweiterten Features arbeiten muss. Insbesondere Support Vector Machines und Kernel-Ridge-Regression profitieren stark von diesem Konzept. Das zentrale mathematische Objekt ist die Kernel-Matrix K \in \mathbb{R}^{n \times n}, deren Einträge durch K_{ij} = K(x_i, x_j) gegeben sind und die als Gramm-Matrix im Merkmalsraum interpretiert werden kann.

Mathematische Definition des Kernel-Tricks

Der Kernel-Trick ersetzt explizite Feature-Berechnungen durch eine Kernel-Funktion, die das innere Produkt der transformierten Datenpunkte liefert:

K(x, x') = \langle \phi(x), \phi(x') \rangle

Diese Definition erfüllt bestimmte mathematische Eigenschaften: Symmetrie K(x, x') = K(x', x) und positive Semidefinitheit, d. h. für beliebige Koeffizienten c_i gilt \sum_{i,j} c_i c_j K(x_i,x_j) \ge 0. Diese Bedingungen garantieren, dass ein reproduzierbarer Kernel-Hilbertraum (RKHS) existiert, in dem lineare Lernalgorithmen optimal arbeiten können.

Beispiele: lineare, polynomiale und Gaußsche RBF-Kernel

Die bekanntesten Kernel-Funktionen sind:

  • Linearer Kernel: K(x, x') = x^\top x'
  • Polynomialer Kernel: K(x, x') = (x^\top x' + c)^d, wobei c \ge 0 und d der Polynomgrad ist
  • Gaußscher RBF-Kernel: K(x, x') = \exp\left(-\frac{|x - x'|^2}{2\sigma^2}\right)

Der lineare Kernel entspricht keiner echten Transformation, sondern misst die Ähnlichkeit im Originalraum. Der polynomiale Kernel erweitert die Repräsentation durch Interaktionstermen höherer Ordnung, während der RBF-Kernel den Daten praktisch eine unendliche Dimension zuweist, wodurch hochkomplexe Strukturen erfasst werden können.

Diese Vielfalt an Kernel-Funktionen ermöglicht es, Lernalgorithmen flexibel an verschiedene Datenstrukturen anzupassen. Dennoch stoßen klassische Kernel-Ansätze an fundamentale Grenzen, insbesondere bei steigender Dimensionalität und Datenmenge.

Grenzen klassischer Kernel-Ansätze

Skalierungsprobleme bei großen Datensätzen

Ein entscheidendes Problem klassischer Kernel-Methoden ist ihre schlechte Skalierbarkeit. Die Berechnung und Speicherung der Kernel-Matrix erfordert \mathcal{O}(n^2) Speicher und \mathcal{O}(n^3) Rechenzeit bei exakter Inversion. Bei modernen Big-Data-Anwendungen mit Millionen von Datenpunkten ist dies praktisch nicht mehr durchführbar. Approximative Verfahren wie Nyström-Methoden oder Random Features reduzieren zwar den Aufwand, verändern jedoch häufig die Genauigkeit und Stabilität der Ergebnisse.

Komplexität in hochdimensionalen Räumen

Obwohl Kernel-Methoden konzipiert wurden, um mit komplexen Datenräumen umzugehen, führt hohe Dimensionalität zu numerischen Instabilitäten und einer Verschlechterung der Generalisierung. Die Wahl geeigneter Hyperparameter, insbesondere bei RBF-Kerneln, wird zunehmend schwierig. Zudem kann die effektive Rankstruktur der Kernel-Matrix kollabieren, wodurch Modelle degenerieren und keine trennscharfen Entscheidungsflächen mehr lernen.

Overfitting und Regularisierung

Klassische Kernel-Methoden sind anfällig für Overfitting, insbesondere wenn die Kapazität des Merkmalsraums hoch ist. Die regulierte Optimierung in Support Vector Machines oder Kernel-Ridge-Regression steuert dem entgegen, aber die optimale Wahl des Regularisierungsparameters \lambda ist nicht trivial und hängt stark von der Datenstruktur ab. Auch bei guter Regularisierung ist die Trainingszeit bei großen Datensätzen beträchtlich.

Diese Grenzen sind einer der Hauptgründe, warum klassische Kernel-Methoden zwar theoretisch elegant und mächtig sind, in großskaligen oder besonders komplexen Anwendungen jedoch an ihre praktischen Einsatzgrenzen stoßen.

Motivation für Quantenkernel

Exponentielle Repräsentationskraft von Quantenräumen

Quantenmechanische Zustandsräume besitzen eine Dimension, die mit der Anzahl der Qubits exponentiell wächst: \dim(\mathcal{H}) = 2^n. Schon bei moderaten Qubit-Zahlen werden Feature-Räume zugänglich, die klassisch unhandlich oder unberechenbar wären. Diese exponentielle Repräsentationskraft ist eine zentrale Motivation für den Einsatz von Quantum Kernel Methods.

Nutzung quantenmechanischer Interferenz und Verschränkung

Quantenmechanische Feature-Maps nutzen physikalische Eigenschaften wie Interferenz und Verschränkung, um komplexe Muster in Daten auf natürliche Weise abzubilden. Interferenz ermöglicht es, subtile Muster durch Überlagerungseffekte zu verstärken oder auszublenden. Verschränkung erzeugt hochkomplexe Korrelationen zwischen Dimensionen, die klassisch nur durch sehr tiefe neuronale Netze oder explizite Feature-Expansionen darstellbar wären.

Möglichkeit nichtklassischer Feature-Mappings

Anders als klassische Kernel-Funktionen, die explizit definiert oder approximiert werden müssen, entstehen Quantenkernel aus physikalischen Prozessen. Die Feature-Abbildung x \mapsto |\phi(x)\rangle wird durch einen unitären Schaltkreis realisiert. Der resultierende Kernel

K(x, x') = |\langle \phi(x)|\phi(x')\rangle|^2

kann Strukturen erfassen, die mit klassischen Methoden nur schwer erreichbar sind. Diese Eigenschaft eröffnet die Möglichkeit, komplexe Entscheidungsflächen mit geringer Modellkomplexität zu lernen.

Damit stellen Quantum Kernel Methods eine vielversprechende Erweiterung des klassischen Kernel-Konzepts dar: Sie bieten das Potenzial, die expressive Kraft von Feature-Mappings deutlich zu erhöhen, ohne die Rechenlast vollständig auf klassische Hardware zu übertragen. Die Motivation ist somit nicht nur theoretisch, sondern auch praktisch: Effiziente Ausnutzung physikalischer Prozesse zur Transformation von Datenräumen für anspruchsvolle Lernaufgaben.

Mathematische und physikalische Grundlagen der Quantum Kernel Methods

Hilbertraum-Formalismus und Quantenfeature-Mapping

Zustandsraum \mathcal{H} und unitäre Transformationen

Die mathematische Grundlage quantenmechanischer Rechenoperationen bildet der Hilbertraum \mathcal{H}. Für ein System aus n Qubits hat dieser Raum die Dimension \dim(\mathcal{H}) = 2^n. Jeder Zustand kann als Vektor |\psi\rangle \in \mathcal{H} dargestellt werden, wobei \langle \psi | \psi \rangle = 1 gilt. Quantenoperationen sind durch unitäre Transformationen U \in U(2^n) gegeben, die die Norm erhalten: U^\dagger U = I.

Diese Unitarität garantiert Reversibilität der Quantenentwicklung, was im Kontext des maschinellen Lernens bedeutet, dass die Transformation der Daten informationsverlustfrei abläuft. Der Übergang von einem klassischen Datenpunkt zu einem Zustand im Hilbertraum wird nicht durch explizite Feature-Erweiterung, sondern durch physikalische Zustandspräparation realisiert.

Einbettung klassischer Daten in Quantenraum

Die zentrale Idee des Quantum Feature Mapping besteht darin, klassische Datenpunkte x \in \mathbb{R}^d in hochdimensionale Zustände eines Quantenregisters einzubetten. Dies geschieht über einen datenabhängigen unitären Operator U_\phi(x), der auf einen Standardzustand |0\rangle^{\otimes n} angewendet wird:

|\phi(x)\rangle = U_\phi(x)|0\rangle

Die konkrete Form des Operators U_\phi(x) hängt von der gewählten Kodierungsstrategie ab (z.B. Angle-, Amplituden- oder Basis-Encoding). Diese Einbettung kann als physikalisches Analogon zu einer klassischen Feature-Map verstanden werden, hat aber aufgrund der exponentiellen Dimensionalität und Verschränkungsmöglichkeiten deutlich höhere Ausdruckskraft.

Quantenkernel-Definition

Inneres Produkt zweier Quantenfeatures

Ein Quantum Kernel basiert auf der Überlappung zweier durch Feature-Maps erzeugter Zustände. Das zentrale mathematische Objekt ist das innere Produkt \langle \phi(x) | \phi(x') \rangle, das die Ähnlichkeit der Datenpunkte im Quantenmerkmalraum beschreibt. Der Kernel selbst wird als das Quadrat des Betrags dieser Überlappung definiert:

K(x, x') = |\langle \phi(x) | \phi(x') \rangle|^2

Damit wird die Kernelberechnung zu einem physikalischen Schätzproblem. Die Überlappung zweier Zustände kann durch Quantenalgorithmen wie den Swap-Test oder Overlap-Schaltkreise experimentell bestimmt werden.

Zusammenhang zwischen Kernel und Messwahrscheinlichkeiten

In der Praxis wird K(x, x') durch die Wahrscheinlichkeit einer Messung in einem bestimmten Basiszustand realisiert. Wenn man beispielsweise den Swap-Test verwendet, erhält man die Kernelwerte aus der Wahrscheinlichkeit, das Kontroll-Qubit im Zustand |0\rangle zu messen. Diese Wahrscheinlichkeiten werden aus wiederholten Messungen gewonnen und liefern eine statistische Schätzung des Overlaps.

Formal gilt:
P(0) = \frac{1 + |\langle \phi(x) | \phi(x') \rangle|^2}{2} \quad \Rightarrow \quad K(x, x') = 2P(0) - 1

Dieser physikalische Zugang ermöglicht es, Kernelwerte direkt auf Quantenhardware zu evaluieren, ohne die explizite Berechnung der Feature-Vektoren durchführen zu müssen.

Reproduzierbarer Kernel-Hilbertraum (RKHS) im Quantenkontext

Wie bei klassischen Kernelmethoden induziert auch ein Quantenkernel einen reproduzierbaren Kernel-Hilbertraum (RKHS). Die Funktionalität eines Lernalgorithmus basiert dann nicht mehr auf der expliziten Form von \phi(x), sondern allein auf K(x,x'). Der wesentliche Unterschied liegt jedoch darin, dass die Abbildung x \mapsto |\phi(x)\rangle in einem Raum stattfindet, der durch physikalische Zustände definiert ist. Dies kann zu höherer Trennbarkeit und effizienterem Lernen führen, wenn der Feature-Raum klassische Grenzen überschreitet.

Geometrische Interpretation von Quantenkernel

Projektion von Datenpunkten auf die Bloch-Sphäre

Für ein einzelnes Qubit lässt sich der Zustand geometrisch als Punkt auf der Bloch-Sphäre interpretieren. Jeder Datenpunkt x wird über die Feature-Map auf einen Punkt auf dieser Kugel projiziert. Für mehrere Qubits ergibt sich ein höherdimensionaler Raum, in dem die Zustände nicht mehr intuitiv visualisiert werden können, aber mathematisch dieselben Prinzipien gelten. Diese Projektion ist entscheidend, da der Abstand auf der Bloch-Sphäre die Ähnlichkeit der Eingabedaten bestimmt.

Feature-Mapping als unitäre Einbettung

Das Quantum Feature Mapping kann als isometrische Einbettung klassischer Daten in einen hochdimensionalen Raum interpretiert werden. Durch die Wahl unterschiedlicher unitärer Transformationen U_\phi(x) lassen sich verschiedene geometrische Strukturen im Zustandsraum erzeugen. Insbesondere durch kontrollierte Phasen und Rotationen werden nichtlineare Abbildungen geschaffen, die in klassischen Settings sehr aufwendig wären.

Beispiel:
Für Angle-Encoding kann ein Vektor x = (x_1, x_2, ..., x_d) durch Rotationen auf den Zuständen codiert werden:
|\phi(x)\rangle = \prod_{j=1}^d R_y(x_j) |0\rangle^{\otimes n}
wobei R_y(\theta) eine Rotationsmatrix um die Y-Achse der Bloch-Sphäre ist.

Trennung komplexer Muster im hochdimensionalen Raum

Der große Vorteil der quantenmechanischen Einbettung liegt in der Möglichkeit, komplexe Muster durch Interferenz und Verschränkung zu trennen. Zwei Klassen, die im ursprünglichen Datenraum nichtlinear überlagert sind, können im Quantenmerkmalraum linear separierbar werden. Lernalgorithmen wie Support Vector Machines profitieren unmittelbar davon, da die Klassifikationsaufgabe einfacher wird.

Diese geometrische Perspektive erlaubt ein tieferes Verständnis des Mechanismus hinter Quantum Kernel Methods: Daten werden nicht zufällig transformiert, sondern entlang physikalisch motivierter Strukturen, die eine hohe expressive Kapazität besitzen. Dies bildet die Grundlage für viele der Leistungsgewinne, die in experimentellen Studien beobachtet werden.

Quanten-Schaltkreise für Daten-Transformation

Encoding-Strategien

Amplituden-Encoding

Amplituden-Encoding ist eine besonders speichereffiziente Strategie zur Repräsentation klassischer Daten im Zustand eines Quantenregisters. Dabei werden die Einträge eines normalisierten Datenvektors x = (x_0, x_1, \ldots, x_{2^n - 1}) direkt in die Amplituden eines n-Qubit-Zustandes kodiert:

|\phi(x)\rangle = \sum_{j=0}^{2^n - 1} x_j |j\rangle

Diese Kodierung erlaubt es, einen Vektor der Länge 2^n mithilfe von nur n Qubits darzustellen. Dadurch lassen sich große Datenräume sehr kompakt repräsentieren. Der Nachteil liegt jedoch in der Zustandsvorbereitung: Das Laden eines allgemeinen Vektors in einen Amplituden-vektor erfordert im Allgemeinen \mathcal{O}(2^n) Operationen, was die Praxistauglichkeit begrenzt. In speziellen Fällen, etwa bei strukturierter Datenverteilung, kann dieser Aufwand jedoch drastisch reduziert werden.

Amplituden-Encoding eignet sich besonders für Anwendungen, bei denen die Eingabedaten ohnehin in normierter Form vorliegen oder wenn effiziente Vorbereitungsroutinen existieren. In Kombination mit Quantum Kernel Methods kann diese Kodierung sehr expressive Feature-Räume abbilden, ohne die Anzahl der Qubits stark zu erhöhen.

Basis-Encoding

Beim Basis-Encoding werden die Werte der klassischen Datenpunkte als Indizes verwendet, um Qubit-Zustände direkt zu adressieren. Ein Datenpunkt x \in {0,1}^n wird auf den Basiszustand |x\rangle des Quantenregisters abgebildet. Beispiel: Der Vektor x = (1,0,1) entspricht dem Zustand |101\rangle.

Basis-Encoding ist konzeptionell einfach und benötigt keine komplexe Zustandspräparation. Allerdings wird hier keine kontinuierliche Informationsstruktur übertragen, sondern lediglich eine diskrete Repräsentation. Für Kernelmethoden kann diese Kodierung dennoch nützlich sein, insbesondere wenn Daten von Natur aus binär sind oder mit klassischen Bitstrings korrespondieren.

Angle-Encoding (z.B. Rotationsgatter)

Angle-Encoding ist eine der praktisch am weitesten verbreiteten Methoden in NISQ-Architekturen. Dabei werden die Komponenten eines Datenvektors in Rotationswinkel von Qubit-Gattern übersetzt. Für jeden Datenwert x_j wird ein Gatter wie R_y(\theta_j) oder R_z(\theta_j) angewendet, wobei \theta_j = f(x_j) eine geeignete Transformation ist. Beispiel:

|\phi(x)\rangle = \prod_{j=1}^d R_y(\theta_j) |0\rangle^{\otimes n}

Angle-Encoding ist hardwarefreundlich und benötigt nur lineare Schaltkreistiefe in Bezug auf die Feature-Dimension. Gleichzeitig ermöglicht die Kombination mit Entangling-Operationen eine nichtlineare Erweiterung des Feature-Raums. Diese Kodierung ist besonders beliebt in hybriden Quanten-Klassifikatoren und QSVM-Anwendungen.

Parameterisierte Quantenschaltkreise (PQC)

Struktur und Funktion

Parameterisierte Quantenschaltkreise (PQC) sind das Herzstück vieler Quantum Machine Learning Verfahren. Ein PQC besteht aus einer festen Sequenz von Gattern, deren Rotationswinkel oder Phasen durch Parameter \boldsymbol{\theta} gesteuert werden. Diese Parameter können datenabhängig (Feature Map Circuit) oder lernbar (Variational Circuit) sein.

Ein allgemeiner PQC hat die Form:

U(\boldsymbol{\theta}, x) = U_L(\theta_L, x) \cdots U_2(\theta_2, x) U_1(\theta_1, x)

wobei U_k Gatterfolgen darstellen, die Daten oder Parameter kodieren. Durch geeignete Wahl der Gattertypen und -reihenfolge kann der resultierende Feature-Raum maßgeschneidert gestaltet werden.

Feature Map Circuits vs. Variational Circuits

Es gibt zwei zentrale Typen von PQCs im Kontext der Kernelmethoden:

  • Feature Map Circuits:
    Diese Schaltkreise kodieren ausschließlich die Eingabedaten in einen quantenmechanischen Zustand. Die Parameter sind fest und deterministisch durch die Daten gegeben. Dadurch wird der Kernel K(x,x') vollständig durch die Feature Map definiert.
  • Variational Circuits:
    Hier werden zusätzlich freie Parameter optimiert, um die Feature-Abbildung an die Struktur der Daten anzupassen. Solche hybriden Ansätze kombinieren Quantum Kernel Methods mit trainierbaren Quantenmodellen und eröffnen eine zusätzliche Lernkomponente.

Messprotokolle und Auslesestrategien

Nach der Feature-Kodierung oder der PQC-Evolution wird das System gemessen. Die einfachste Strategie ist die Projektion auf die Computational Basis. Je nach Modell kann jedoch auch ein spezielles Messprotokoll wie der Swap-Test oder Overlap-Test verwendet werden, um den Kernelwert direkt zu bestimmen.

Die Messwahrscheinlichkeit P(0) liefert einen Schätzer für |\langle \phi(x)|\phi(x')\rangle|^2. Um eine ausreichende Genauigkeit zu erreichen, werden Messungen wiederholt (Shot-Based Estimation). Typischerweise reichen in experimentellen Szenarien einige Tausend Shots, um stabile Schätzwerte zu erhalten.

Ressourcen und Komplexität

Anzahl der Qubits vs. Feature-Dimension

Die Wahl der Kodierungsstrategie beeinflusst direkt die Anzahl der benötigten Qubits. Beim Amplituden-Encoding wächst die mögliche Feature-Dimension exponentiell mit der Qubit-Zahl (d = 2^n). Bei Angle-Encoding entspricht die Qubit-Zahl oft der Anzahl der Features oder einem Bruchteil davon. Diese Flexibilität erlaubt die Anpassung an die Hardwarekapazität, ist jedoch mit einem Trade-off zwischen Ausdruckskraft und Realisierbarkeit verbunden.

Tiefe des Schaltkreises und Auswirkung auf Generalisierung

Die Tiefe des Quanten-Schaltkreises ist ein entscheidender Faktor für die Generalisierungsfähigkeit. Flache Schaltkreise haben geringere expressive Kapazität, sind jedoch robust gegenüber Rauschen. Tiefe Schaltkreise erlauben komplexere Feature-Mappings, sind aber anfälliger für Dekohärenz und statistisches Rauschen. Ein zu tiefer Schaltkreis kann zu einem Phänomen führen, das als Barren Plateau bekannt ist: die Ableitung der Kostenfunktion verschwindet exponentiell, was das Training erschwert.

Komplexitätstheoretische Implikationen

Quantum Kernel Methods eröffnen die Möglichkeit, Feature-Mappings zu realisieren, die klassisch inakzeptabel teuer wären. Unter bestimmten Annahmen kann gezeigt werden, dass das Berechnen der Kernelwerte K(x,x') auf klassischen Rechnern #P-schwer ist, während die Quantenhardware dies effizient approximieren kann. Diese Komplexitätslücke bildet einen theoretischen Kernvorteil des quantenmechanischen Ansatzes.

In der Praxis bedeutet dies, dass Quantum Kernel Methods Aufgaben adressieren können, bei denen klassische Methoden selbst mit approximativen Verfahren an ihre Grenzen stoßen. Die Herausforderung liegt in der Gestaltung von Schaltkreisen, die diesen theoretischen Vorteil unter realistischen Hardwarebedingungen nutzbar machen.

Quantum Kernel Methods im maschinellen Lernen

Verbindung zu Support Vector Machines (QSVM)

QSVM-Architektur: Klassischer Optimierer + Quantenkernel

Eine der zentralen Anwendungen von Quantum Kernel Methods liegt in ihrer Integration in Support Vector Machines. Das Grundprinzip ist einfach: Der klassische Optimierungsprozess der SVM bleibt erhalten, aber der Kernel K(x,x') wird nicht klassisch, sondern durch Quantenhardware berechnet. Diese Architektur wird als QSVM (Quantum Support Vector Machine) bezeichnet.

Die Klassifikationsaufgabe wird in der Dualform gelöst:

\max_{\boldsymbol{\alpha}} \sum_{i=1}^N \alpha_i - \frac{1}{2} \sum_{i,j=1}^N \alpha_i \alpha_j y_i y_j K(x_i, x_j)

unter den Nebenbedingungen \alpha_i \ge 0 und \sum_i \alpha_i y_i = 0 .

Die Kernelmatrix K wird hierbei nicht durch eine klassische Kernel-Funktion berechnet, sondern durch Messungen des Overlaps zwischen Quantenfeature-Zuständen. Damit wird der gesamte Optimierungsschritt von effizienten klassischen Methoden übernommen, während die Kernel-Evaluation auf physikalischer Ebene stattfindet.

Entscheidungshyperflächen im Quantenmerkmalraum

Durch die Einbettung in hochdimensionale Quantenräume können Klassen, die im Originalraum nichtlinear überlagert sind, im Quantenmerkmalraum linear separierbar werden. Die Entscheidungsfläche entspricht einer linearen Trennung in diesem Raum, was mathematisch durch

f(x) = \text{sign}\left(\sum_{i=1}^N \alpha_i y_i K(x_i, x) + b \right)

gegeben ist.

Der entscheidende Unterschied zu klassischen SVMs liegt darin, dass der Quantenkernel nicht einfach eine bekannte analytische Funktion ist, sondern aus einer physikalischen Transformation hervorgeht. Diese Transformation kann exponentiell komplexe Feature-Räume erzeugen, wodurch die Entscheidungsflächen sehr flexibel und ausdrucksstark werden.

Vergleich zu klassischen SVM

Klassische SVMs mit Standardkerneln wie RBF oder polynomialen Funktionen sind mächtige Werkzeuge, stoßen jedoch bei sehr komplexen Datenmustern an ihre Grenzen. Quantum Kernel Methods ermöglichen die Abbildung solcher Muster in hochdimensionale Zustandsräume, ohne dass die Berechnung des Kernels selbst klassisch unhandlich wird.

QSVM-Modelle zeigen insbesondere bei strukturierter, hochkomplexer Datengeometrie Vorteile. In Szenarien mit kleinen bis mittleren Datensätzen (z.B. chemische Moleküldatenbanken, biologische Sequenzen oder Anomalieerkennung) kann die höhere expressive Kapazität des Quantenraums zu besseren Klassifikationsergebnissen führen.

Anwendungen in der Klassifikation

Mustererkennung und Bildklassifikation

Quantum Kernel Methods eignen sich hervorragend für Mustererkennungsaufgaben, da sie komplexe nichtlineare Strukturen effizient abbilden können. Beispielsweise können Bilddaten über Angle-Encoding in einen Quantenraum eingebettet werden. Die Quantenkernel-Matrix reflektiert dabei die Ähnlichkeitsstruktur im Bildraum, wodurch selbst subtile Unterschiede zwischen Klassen für die SVM besser nutzbar werden.

Ein QSVM kann dadurch feine Strukturen trennen, die mit klassischen Methoden oft nur durch tiefe neuronale Netze erfassbar wären. Erste experimentelle Ergebnisse zeigen, dass bei kleinen Bilddatenmengen (z.B. MNIST-Subsets) ein Quantenkernel vergleichbare oder sogar bessere Generalisierungsleistungen erzielen kann als klassische RBF-Kernel.

Anomalieerkennung in komplexen Datensätzen

Anomalieerkennung profitiert stark von Kernel-Methoden, da sie häufig auf Distanzen und Ähnlichkeiten im Feature-Raum basiert. Quantum Kernel Methods bieten die Möglichkeit, Daten in Räume einzubetten, in denen Ausreißer klarer von Normalmustern trennbar sind. Dies ist insbesondere relevant in Bereichen wie Cybersecurity, Finanztransaktionen oder industrieller Sensordatenanalyse.

Anomalien, die im Originalraum schwer zu erkennen sind, können im Quantenmerkmalraum deutlicher hervortreten. Damit eröffnen sich neue Strategien zur robusten, physikalisch motivierten Detektion ungewöhnlicher Ereignisse.

Molekulare und chemische Strukturanalyse

Ein besonders vielversprechendes Anwendungsfeld ist die Molekülklassifikation und -analyse. Moleküle besitzen hochkomplexe nichtlineare Strukturbeziehungen, die sich nur schwer in klassische Feature-Vektoren pressen lassen. Quantenkernel ermöglichen es, molekulare Strukturen über quantenmechanische Feature-Maps effizient abzubilden.

QSVMs können in diesem Kontext zur Klassifikation chemischer Eigenschaften (z.B. Toxizität, Reaktivität) eingesetzt werden. Da viele molekulare Phänomene selbst quantenmechanischer Natur sind, bietet diese Methode einen besonders natürlichen Zugang zur Datenrepräsentation.

Generalisierungsfähigkeit und Robustheit

Theoretische Überlegenheit vs. praktische Limitierungen

Quantum Kernel Methods besitzen theoretisch das Potenzial, die Generalisierungsfähigkeit klassischer Modelle zu übertreffen, da die Feature-Räume extrem reichhaltig sind. In der Praxis sind sie jedoch durch Hardwareeinschränkungen limitiert: Rauschen, begrenzte Qubit-Zahlen und geringe Kohärenzzeiten können die effektive Trennschärfe des Kernels reduzieren.

Zudem muss zwischen Ausdruckskraft und Generalisierungsfähigkeit abgewogen werden. Ein zu komplexer Quantenkernel kann leicht zu Overfitting führen, wenn die Anzahl der Trainingsbeispiele klein ist.

Rauschanfälligkeit und Fehlerkorrektur

Messrauschen und Dekohärenz führen dazu, dass die geschätzten Kernelwerte \widehat{K}(x,x') von ihren idealen Werten abweichen. Diese Abweichungen wirken sich direkt auf die Qualität der Klassifikation aus. Ansätze zur Fehlerreduktion umfassen Rauschmodellierung, symmetrisches Schalten von Schaltkreisen, error mitigation und den Einsatz robuster Optimierungsverfahren.

Langfristig wird die Integration von Quantenfehlerkorrektur entscheidend sein, um die Stabilität und Reproduzierbarkeit von QSVMs zu erhöhen.

Hybridmodelle für mehr Stabilität

Ein praktikabler Ansatz ist die Kombination von Quantum Kernel Methods mit klassischen Lernkomponenten. Dabei übernimmt der Quantenanteil die Feature-Transformation, während robuste klassische Modelle die Klassifikation durchführen.

Beispiel: Ein Quantenkernel liefert eine hochdimensionale Feature-Representation, die anschließend von einem klassischen linearen Klassifikator, einer logistischen Regression oder einer klassischen SVM verarbeitet wird. Diese Hybridarchitektur nutzt die Stärke der Quantenkernel, kompensiert aber deren Anfälligkeit gegenüber Rauschen und begrenzter Hardwaretiefe.

Diese Kombination aus theoretischer Expressivität und praktischer Stabilität macht Quantum Kernel Methods zu einem vielversprechenden Werkzeug für maschinelles Lernen im NISQ-Zeitalter.

Quantum Kernel Methods für Daten-Transformation

Feature Space Transformation auf Quantenebene

Projektion klassischer Daten auf hochdimensionale Zustandsräume

Einer der zentralen Vorteile von Quantum Kernel Methods liegt in ihrer Fähigkeit, klassische Daten effizient auf hochdimensionale Zustandsräume abzubilden. Dies erfolgt durch die unitäre Transformation U_\phi(x), die einen Datenpunkt x \in \mathbb{R}^d auf einen quantenmechanischen Zustand |\phi(x)\rangle projiziert:

|\phi(x)\rangle = U_\phi(x) |0\rangle^{\otimes n}

Dieser Zustandsraum besitzt die Dimension \dim(\mathcal{H}) = 2^n, was bedeutet, dass schon wenige Qubits einen Feature-Raum mit sehr hoher Kapazität erzeugen. Diese Projektion kann als nichtlineare Transformation interpretiert werden, die hochkomplexe geometrische Strukturen erzeugt, ohne dass sie explizit klassisch konstruiert werden müssen.

Ein anschauliches Beispiel: Zwei Klassen, die im ursprünglichen Eingaberaum durch eine gekrümmte, schwer trennbare Grenze voneinander getrennt sind, können im Quantenmerkmalraum durch lineare Hyperflächen separiert werden. Damit übernehmen Quantum Kernel Methods eine Rolle, die klassisch oft tiefen neuronalen Netzen vorbehalten ist.

Nonlineare Transformation ohne explizite Feature-Konstruktion

Im klassischen maschinellen Lernen erfordert die Erzeugung komplexer Merkmalsräume oft explizite Feature-Konstruktion – beispielsweise Polynomerweiterungen, Kernel-Funktionen oder neuronale Architekturen. Quantum Kernel Methods umgehen diesen Schritt, indem sie die Transformation physikalisch implementieren.

Die nichtlineare Abbildung entsteht durch die Struktur des Schaltkreises und die Interferenz- und Verschränkungsmechanismen innerhalb des Quantenregisters. Dadurch wird die Komplexität des Feature-Mappings nicht mehr durch die Implementierung klassischer Funktionen begrenzt, sondern durch die Gestaltung des Quantenoperators U_\phi.

Erhöhung der Trennbarkeit in Klassifikationsaufgaben

Die Trennbarkeit zweier Klassen im Feature-Raum wird häufig durch den Margin \gamma zwischen den Klassen beschrieben. Quantum Kernel Methods können diesen Margin vergrößern, indem sie die Daten so transformieren, dass zuvor komplexe Grenzen einfacher werden.

Formal: Wenn K_\phi(x,x') ein Quantenkernel ist und \phi(x) die zugehörige Abbildung, dann kann die lineare Separierbarkeit in diesem Raum verbessert werden, sodass die Klassifikationsaufgabe leichter wird. Diese Verbesserung führt in der Praxis oft zu stabileren Entscheidungsgrenzen und besserer Generalisierung.

Spektralanalyse und Quantenkernel

Eigenwertspektren und Datenstruktur

Ein mächtiges Werkzeug zur Analyse von Quantum Kernel Methods ist die Untersuchung des Eigenwertspektrums der Kernelmatrix K. Die Eigenwerte \lambda_1 \ge \lambda_2 \ge \cdots \ge \lambda_N geben Auskunft über die effektive Dimension des Merkmalsraums und damit über die Komplexität des zugrunde liegenden Lernproblems.

Ein gut konditioniertes Spektrum mit wenigen dominanten Eigenwerten deutet auf eine kompakte, gut strukturierte Feature-Darstellung hin. Dagegen weisen flache Spektren auf hochkomplexe, potenziell schwer zu generalisierende Abbildungen hin.

Im Kontext quantenmechanischer Feature Maps kann das Spektrum durch die Struktur des Schaltkreises beeinflusst werden – beispielsweise durch die Tiefe, die Wahl der Entangling-Operationen oder das Encoding-Schema.

Zusammenhang mit Principal Component Analysis (PCA)

Die Spektralanalyse des Quantenkernels steht in engem Zusammenhang mit PCA. Die Hauptkomponenten der Kernelmatrix entsprechen Richtungen maximaler Varianz im Quantenmerkmalraum. Damit lassen sich die dominanten Strukturen der Daten identifizieren, ohne die Feature-Vektoren explizit zu berechnen.

Dies erlaubt quanteninspirierte Verfahren zur Dimensionsreduktion: Anstatt mit allen Dimensionen zu arbeiten, kann man sich auf die subdominanten Hauptachsen konzentrieren, die die relevanten Informationen tragen. Auf diese Weise wird nicht nur die Rechenlast reduziert, sondern auch die Generalisierung verbessert.

Quanteninspirierte Dimensionsreduktion

Durch die Auswertung der Spektren von Quantenkerneln kann man effektive Feature-Subräume identifizieren, die die relevanten Informationen über die Daten enthalten. Die Projektion in diese Subräume entspricht einer quanteninspirierten PCA:

\tilde{K} = V_r \Lambda_r V_r^\top

wobei V_r die Matrix der r führenden Eigenvektoren und \Lambda_r die zugehörigen Eigenwerte ist. Diese Reduktion kann genutzt werden, um Klassifikations- oder Regressionsmodelle effizienter und robuster zu machen.

Topologische Eigenschaften transformierter Datenräume

Trennung über nichtlineare Entscheidungsgrenzen

Die Topologie des transformierten Feature-Raums ist entscheidend für die Leistungsfähigkeit von Quantum Kernel Methods. Im ursprünglichen Eingaberaum kann die Trennfläche zwischen Klassen hochgradig nichtlinear oder sogar fraktal strukturiert sein. Durch die Transformation in den Quantenraum kann diese Fläche in eine hyperplanare Struktur überführt werden, die mit linearen Methoden effizient erfasst werden kann.

Das bedeutet, dass komplexe Klassifikationsaufgaben in einfachere Optimierungsprobleme überführt werden – eine der stärksten Eigenschaften dieser Methoden.

Geometrische Robustheit gegen Datenrauschen

Quantenkernel können durch ihre geometrische Struktur eine gewisse Robustheit gegenüber moderatem Rauschen aufweisen. Da die Transformation im Zustandsraum durch unitäre Operationen erfolgt, bleiben Abstände zwischen Punkten in gewisser Weise stabil, auch wenn die Eingangsdaten verrauscht sind. Dies kann insbesondere bei kleinen Stichprobenumfängen oder verrauschten Messdaten zu stabileren Klassifikationen führen.

Die Robustheit ist eng mit der Form des Kernel-Spektrums verbunden: Eine starke Dominanz weniger Hauptkomponenten kann bewirken, dass Rauschen in unwichtigen Richtungen unterdrückt wird, ähnlich wie bei klassischer Regularisierung.

Zusammenhang mit Quanteninformationstheorie

Die topologischen Eigenschaften des transformierten Datenraums lassen sich auch aus Sicht der Quanteninformationstheorie interpretieren. Die Quantenfeature-Zustände |\phi(x)\rangle bilden ein Ensemble, dessen Struktur durch Metriken wie die Fubini-Study-Distanz oder die Bures-Metrik beschrieben werden kann.

Die Fubini-Study-Distanz zwischen zwei Zuständen |\psi\rangle und |\phi\rangle ist gegeben durch

d_{\text{FS}}(\psi, \phi) = \arccos(|\langle \psi|\phi\rangle|)

und misst den „Winkel“ zwischen den Zuständen im Projektivraum. Diese geometrische Sicht erlaubt eine präzise Charakterisierung der Trennbarkeit von Klassen und der Stabilität des Mappings gegen Störungen.

Damit stellen Quantum Kernel Methods nicht nur ein Werkzeug zur Datenanalyse dar, sondern verbinden auf tiefer Ebene Informationstheorie, Geometrie und maschinelles Lernen zu einer einheitlichen Transformationslogik.

Implementierung und experimentelle Ansätze

Hardware-Anforderungen

Gate-basierte Quantencomputer (z.B. IBM, Rigetti, IonQ)

Die praktische Umsetzung von Quantum Kernel Methods erfordert Quantenhardware, die in der Lage ist, unitäre Transformationen und Messungen mit hinreichender Präzision auszuführen. Gate-basierte Quantencomputer stellen die derzeit am weitesten verbreitete Plattform dar. Anbieter wie IBM, Rigetti oder IonQ stellen Quantenprozessoren mit supraleitenden Qubits bzw. Ionenfallen-Technologie zur Verfügung.

Diese Systeme erlauben die Implementierung von Feature-Maps durch Sequenzen von Elementargattern, wie Rotationen um die Bloch-Achsen (R_x, R_y, R_z) sowie Entangling-Gatter (z.B. \text{CNOT} oder \text{CZ}). Die Berechnung des Quantenkernels erfolgt über Overlap-Schaltkreise oder Swap-Tests, deren Ergebnisse statistisch aus vielen Messungen aggregiert werden.

Die Wahl der Hardwarearchitektur beeinflusst direkt die Qualität der Kernelwerte. Beispielsweise haben Ionenfallen-Quantencomputer typischerweise geringere Rauschwerte und längere Kohärenzzeiten als supraleitende Systeme, wodurch stabilere Kernelmessungen möglich sind.

NISQ-Geräte und Rauschproblematik

Aktuelle Quantencomputer befinden sich im NISQ-Zeitalter (Noisy Intermediate-Scale Quantum). Das bedeutet, dass die Systeme eine moderate Anzahl von Qubits besitzen, aber noch keine vollständige Fehlerkorrektur beherrschen. Rauschen entsteht durch Gatterfehler, Dekohärenz und Messungenauigkeiten und wirkt sich unmittelbar auf die Schätzung der Kernelmatrix \widehat{K}(x,x') aus.

Dieses Rauschen führt zu Fluktuationen und Verzerrungen, die bei der Klassifikation eine Verschlechterung der Generalisierung verursachen können. Strategien zur Rauschreduktion umfassen symmetrische Schaltkreise, Error Mitigation, Resampling und Kalibrierungsprotokolle.

Fehlerkorrektur und Dekohärenzzeiten

Langfristig wird die Implementierung robuster Quantum Kernel Methods stark von Fortschritten in der Quantenfehlerkorrektur abhängen. Dekohärenzzeiten begrenzen die maximale Tiefe des Feature-Schaltkreises und damit die Komplexität des Mappings. Fehlerkorrekturverfahren wie Surface Codes oder Bacon-Shor-Codes können theoretisch stabile Berechnungen über längere Zeiträume ermöglichen, sind aber gegenwärtig sehr ressourcenintensiv.

Für NISQ-Anwendungen gilt daher ein Kompromiss: Schaltkreise müssen kurz und hardwareeffizient sein, um Dekohärenzeffekte zu minimieren, ohne die expressive Kraft des Mappings zu verlieren.

Software-Frameworks

Qiskit, PennyLane, TensorFlow Quantum

Zur praktischen Umsetzung von Quantum Kernel Methods stehen leistungsfähige Software-Frameworks zur Verfügung.

  • Qiskit (IBM): bietet native Unterstützung für Quantum Kernel Evaluation über das Modul qiskit_machine_learning. Hier lassen sich Feature-Maps entwerfen, Schaltkreise simulieren oder direkt auf echter Hardware ausführen.
  • PennyLane (Xanadu): fokussiert auf hybride Quanten-KI-Modelle und erlaubt eine flexible Kombination von Quantum Kernel Methods mit klassischen Lernarchitekturen.
  • TensorFlow Quantum: ermöglicht die Integration von Quantenoperationen direkt in TensorFlow-Modelle. Damit lassen sich QSVMs oder andere Kernel-basierte Lernverfahren in bestehende Deep-Learning-Pipelines einbetten.

Diese Frameworks stellen Werkzeuge bereit, um Feature-Maps zu designen, Kernelmatrizen zu evaluieren, Hyperparameter zu optimieren und Klassifikationsmodelle zu trainieren.

Schnittstellen zu klassischen ML-Pipelines

Quantum Kernel Methods entfalten ihre volle Wirkung, wenn sie nahtlos in klassische Machine-Learning-Infrastrukturen eingebettet werden. Ein typischer Workflow besteht aus drei Schritten:

  1. Feature-Mapping: Quantenhardware (oder -simulator) berechnet die Kernelmatrix K.
  2. Klassifikation: Klassischer Optimierer (z.B. SVM) trainiert ein Modell auf Basis dieser Kernelmatrix.
  3. Evaluation: Modell wird klassisch validiert und getestet.

Diese Hybridstruktur erlaubt die Nutzung etablierter ML-Bibliotheken wie scikit-learn in Kombination mit Quantenframeworks. So lassen sich bekannte Klassifikationsverfahren direkt mit Quantenkerneln betreiben, ohne die gesamte Pipeline neu zu entwerfen.

QSVM-Implementierung und Training

Eine typische QSVM-Implementierung umfasst:

  • Definition einer Feature-Map (U_\phi(x))
  • Evaluation der Kernelmatrix durch Overlap- oder Swap-Test
  • Einbindung der Kernelmatrix in eine klassische SVM-Lösung
  • Optimierung der Hyperparameter (C, Regularisierung, Kernelparameter)
  • Training und Cross-Validation

In der Praxis werden diese Schritte häufig durch automatisierte Skripte und APIs unterstützt, die Kernelberechnung und Optimierung kombinieren.

Benchmarking und Leistungsanalyse

Vergleich mit klassischen Kernelmethoden

Ein wesentlicher Bestandteil experimenteller Arbeiten mit Quantum Kernel Methods ist der direkte Vergleich mit klassischen Kernelmethoden. Übliche Vergleichsmaßstäbe sind:

  • Klassische RBF-Kernel vs. Quantum Kernel
  • Trainings- und Testgenauigkeit
  • Robustheit gegenüber Rauschen
  • Rechenaufwand und Laufzeit

Besonders bei strukturierter, komplexer Datengeometrie können Quantenkernel deutliche Vorteile zeigen, während bei einfacheren Aufgaben klassische Kernel oft vergleichbare Leistungen erzielen.

Skalierbarkeit und Rechenzeit

Skalierbarkeit ist ein kritischer Faktor bei der Bewertung von Quantum Kernel Methods. Während Quantenkernel theoretisch mit der Qubit-Zahl exponentiell wachsende Feature-Räume erschließen, sind praktische Implementierungen durch Hardwareverfügbarkeit, Schaltkreistiefe und Messstatistik begrenzt.

Die Evaluierung einer Kernelmatrix der Größe N \times N erfordert \mathcal{O}(N^2) Overlap-Berechnungen. Daher ist die effiziente Gestaltung von Feature-Maps entscheidend, um Rechenzeit zu minimieren.

Evaluationsmetriken: Accuracy, F1-Score, AUC

Zur Beurteilung der Modellleistung werden klassische Evaluationsmetriken verwendet:

  • Accuracy: Anteil korrekt klassifizierter Beispiele.
  • F1-Score: Harmonisches Mittel aus Präzision und Recall, besonders relevant bei unausgewogenen Datensätzen.
  • AUC (Area Under the ROC Curve): Misst die Trennschärfe zwischen Klassen unabhängig vom Schwellenwert.

Darüber hinaus können Lernkurven, Konfusionsmatrizen und Spektralanalysen der Kernelmatrix genutzt werden, um die Leistung und Stabilität des Modells detailliert zu charakterisieren.

Mit diesen Komponenten – geeigneter Hardware, flexibler Software und solider Evaluationsmethodik – lassen sich Quantum Kernel Methods nicht nur theoretisch analysieren, sondern auch praktisch implementieren und mit klassischen Verfahren vergleichen. Diese experimentelle Fundierung ist entscheidend, um die Potenziale und Grenzen der Technologie realistisch einzuschätzen.

Herausforderungen und offene Forschungsfragen

Rauschen und Dekohärenz

Einfluss auf Kernelwerte und Klassifikationsgüte

Rauschen in NISQ-Geräten verzerrt die Schätzung des Overlaps und damit die Einträge der Kernelmatrix \widehat{K}(x,x'). Modelliert man Gatter- und Messfehler als Kanal \mathcal{E}, so gilt näherungsweise
\widehat{K}(x,x') \approx \operatorname{Tr}!\left[\mathcal{E}!\left(|\phi(x)\rangle\langle\phi(x)|\right), \mathcal{E}!\left(|\phi(x')\rangle\langle\phi(x')|\right)\right].
Schon kleine systematische Offsets können die positive Semidefinitheit verletzen und zu schlecht konditionierten Kernelmatrizen führen, was die Stabilität der SVM-Optimierung beeinträchtigt. Die resultierende generalisierte Fehlerrate steigt typischerweise, da effektive Margins schrumpfen.

Strategien zur Fehlerreduktion

Neben Hardwarekalibrierung helfen symmetrisierende Messprotokolle (z.B. Messbasis-Randomisierung), Zero-Noise-Extrapolation und Richardson-Extrapolation. Shot-Adaptation reduziert die Varianz, indem man die Zahl der Wiederholungen pro Matrixeintrag adaptiv nach Unsicherheit zuteilt. Post-Processing erzwingt positive Semidefinitheit durch Projektion von \widehat{K} auf den Kegel positiver Matrizen:
\widehat{K}{\text{psd}} = \arg\min{M \succeq 0} |M - \widehat{K}|_F.

Rauschtolerante Quantum Kernel Ansätze

Rauschtoleranz entsteht durch flache Feature-Maps, lokale Entangling-Muster und Kanäle mit Fixpunkten, die Overlaps konservieren. Ein praktischer Ansatz ist das Entwerfen von Feature-Maps mit eingebauter Stabilität, sodass für kleine Rauschstärken \epsilon gilt
|K_\phi(x,x') - \widehat{K}_\phi(x,x')| \le C \epsilon + \mathcal{O}(\epsilon^2).
Zusätzlich können Regularisierung und Spektralbeschnitt (Trunkierung kleiner Eigenwerte) die Sensitivität gegenüber Messfehlern reduzieren.

Komplexität und Ressourcenskalierung

Hardware-Limitierungen

Begrenzte Qubit-Zahlen, Kopplungsgrafen mit endlicher Konnektivität und kurze Kohärenzzeiten limitieren die Tiefe realisierbarer Feature-Maps. Das Laden allgemeiner Amplituden erfordert im Worst Case \mathcal{O}(2^n) Operationen, weshalb in der Praxis strukturierte Datenzugänge oder angle/basis-encoding bevorzugt werden. Layout- und Routingkosten auf realen Architekturen erhöhen zusätzlich die effektive Tiefe.

Trade-off zwischen Expressivität und Generalisierung

Sehr expressive Feature-Maps können zu Barren Plateaus führen und die Optimierbarkeit bzw. Schätzbarkeit der Kernelwerte erschweren. Aus Sicht der Lerntheorie steht ein größerer Hypothesenraum nicht automatisch für bessere Generalisierung. Margin-gebundene Schranken für Kernelmethoden zeigen typischerweise
\mathcal{E}_{\text{gen}} \lesssim \mathcal{O}!\left(\frac{R^2}{\gamma^2, m}\right),
wobei R die RKHS-Norm-Beschränkung, \gamma der effektive Margin und m die Stichprobengröße ist. Ziel des Feature-Designs ist es, \gamma zu vergrößern, ohne den effektiven Modellradius unkontrolliert anwachsen zu lassen.

Effiziente Approximation von Kernelwerten

Für große Datensätze ist die exakte Berechnung aller \mathcal{O}(N^2) Overlaps kostspielig. Subsampling, Nystrom-ähnliche Skizzen und aktive Auswahl repräsentativer Stützvektoren reduzieren die Zahl der notwendigen Evaluierungen. Auf der Quantenseite helfen Mehrpunkt-Protokolle (z.B. Batch-Overlap-Zircuits) und adaptive Shot-Zuteilung. Eine kontrollierte Approximation erfüllt
|K - \widetilde{K}|2 \le \delta \quad \Rightarrow \quad |f_K(x) - f{\widetilde{K}}(x)| \le C, \delta,
wobei C von Regularisierung und Margin abhängt.

Interpretierbarkeit und theoretische Fundierung

Zusammenhang zwischen Quantenkernel und Lernkapazität

Die Kapazität wird durch die Geometrie des durch K_\phi induzierten RKHS bestimmt. Rademacher-Komplexitäten und Covering Numbers lassen sich über das Eigenwertspektrum der Kernelmatrix kontrollieren. Liegt die Masse der Eigenwerte auf wenigen Komponenten, entsteht ein „schlanker“ effektiver Hypothesenraum mit günstigen Generalisierungseigenschaften. Formal liefert ein schneller Eigenwertabfall \lambda_j \le C j^{-p} für p>1 verbesserte Fehlerabschätzungen.

Theoretische Garantien und Konvergenzeigenschaften

Für Kernel-Ridge-Regression und SVM existieren konsistente Schätzprozesse, sofern Regularisierung \lambda und Stichprobengröße m in einem geeigneten Regime skaliert werden. Typische Raten haben die Form
\mathbb{E}\big[|f_{\lambda,m} - f^\star|{L^2}\big] \le C_1, \lambda^\beta + C_2, \frac{1}{\sqrt{m}}, \Phi(K\phi),
wobei \beta die Glattheit von f^\star im RKHS reflektiert und \Phi(K_\phi) eine Komplexitätsfunktion des Quantenkernels (z.B. von dessen Spektralträger) darstellt. Offene Fragen betreffen die präzise Charakterisierung von Klassen quanteninduzierter Kernel, die klassisch schwer approximierbar sind.

Erklärbare Quantenmodelle (Explainable Quantum AI)

Erklärbarkeit im Quantenkontext erfordert neue Werkzeuge:

  • Sensitivitätsanalyse von Kernelwerten gegenüber Eingabeperturbationen
    S_j(x) = \frac{\partial}{\partial x_j} \sum_i \alpha_i y_i K_\phi(x_i, x),
  • Pullbacks quanteninformationstheoretischer Metriken (z.B. Fubini-Study) in den Eingaberaum, um lokale Krümmung und Trennschärfe zu visualisieren,
  • Prototyp-basiertes Erklären über Support-Vektoren als repräsentative Zustände.

Ein Ziel ist, die Rolle einzelner Schaltkreisbausteine auf die Entscheidungsgrenze zu quantifizieren, etwa über Gate-Okklusion: Entfernt man kontrolliert Teile von U_\phi und misst den Einfluss auf K_\phi, lassen sich kausale Beiträge zur Trennbarkeit identifizieren.

Zusammengefasst verlangen robuste Quantum Kernel Methods eine gemeinsame Optimierung aus Hardware, Schaltkreisdesign, statistischer Regularisierung und interpretierbaren Geometriewerkzeugen. Gerade an der Schnittstelle von Komplexitätstheorie und Lernstatistik liegen zentrale offene Forschungsfragen, deren Beantwortung den praktischen Durchbruch quantengetriebener Daten-Transformation maßgeblich beschleunigen dürfte.

Zukunftsperspektiven

Integration mit Quanten-Hybridsystemen

Kombination mit Variational Quantum Algorithms (VQA)

Die Kopplung von Quantum Kernel Methods mit Variational Quantum Algorithms (VQAs) vereint feste, datengetriebene Feature-Maps mit adaptiven, lernbaren Parametern. Während der Kernel die Ähnlichkeitsstruktur bereitstellt, optimiert ein variationaler Block die Entscheidungsschicht oder verfeinert die Feature-Geometrie. Ein generisches Lernziel lautet:
\min_{\boldsymbol{\theta}} \ \mathbb{E}{(x,y)\sim \mathcal{D}} \ \ell!\left(y,\ f{\boldsymbol{\theta}}(x)\right) + \lambda |f_{\boldsymbol{\theta}}|{\mathcal{H}{K_\phi}}^2,
wobei der zweite Term die RKHS-Regularisierung relativ zum Quantenkernel ausdrückt. Praktisch entsteht ein Co-Design: flache, rauschtolerante Feature-Maps U_\phi(x) plus ein variationaler Block U_{\text{var}}(\boldsymbol{\theta}), der die Trennbarkeit in hardwarekompatibler Tiefe erhöht.

Hybrid ML-Pipelines mit klassischen Pre- und Postprocessing-Schritten

Hybride Pipelines kombinieren robuste klassische Vorverarbeitung (Normalisierung, Whitening, Feature-Selektion) mit quantenmechanischer Transformation und klassischer Auswertung. Ein typischer Ablauf:

  1. Klassisches Preprocessing reduziert Varianz und skaliert Eingaben.
  2. Quantenkernel extrahiert nichtlineare Struktur über K_\phi(x,x')=|\langle \phi(x)|\phi(x')\rangle|^2.
  3. Klassischer Optimierer (z.B. SVM, logistische Regression) trainiert mit Regularisierung.
  4. Postprocessing liefert Schwellenwertkalibrierung, Unsicherheitsabschätzung und Erklärungen.

Solche Pipelines nutzen etablierte Infrastruktur und mindern das Risiko durch NISQ-Rauschen, ohne auf die expressive Kraft des Quantenmerkmalsraums zu verzichten.

Dynamische Feature-Mappings

Statt statischer Feature-Maps rücken adaptive, daten- oder kontextabhängige Mappings in den Fokus. Dynamische Maps schalten Gattermuster je nach Datenregion um oder wählen unter mehreren Encoding-Pfaden. Formal kann ein datengesteuertes Routing als stückweise unitäre Abbildung modelliert werden:
U_\phi(x) = \sum_{k} \Pi_k(x), U_{\phi,k}(x), \quad \Pi_k(x)\in{0,1}, \ \sum_k \Pi_k(x)=1.
Dies erlaubt spezialisierten „lokalen“ Quantenfeature-Räumen pro Cluster oder Aufgabenmodus (z.B. unterschiedliche Mappings für Text, Moleküle, Sensordaten). Meta-Lernen kann solche Routing-Regeln automatisch entdecken.

Quantum Kernel Methods in Quantenkommunikation und Kryptographie

Transformation von Kommunikationsdaten in verschränkten Räumen

In Kommunikationsszenarien wird die Information als Zustandsensemble modelliert. Quantum Kernel Methods können die Struktur von Signalzuständen im verschränkten Hilbertraum sichtbar machen, etwa durch Bewertung der Zustandsähnlichkeit via Fidelity:
K(x,x') = |\langle \phi(x) | \phi(x') \rangle|^2, \quad \phi(x) = U_\phi(x)|0\rangle.
Für Mehrparteienprotokolle lässt sich die Ähnlichkeit über Teilsysteme definieren, um Korrelationen herauszuarbeiten, die klassisch nur schwer zugänglich sind. Anwendungen reichen von adaptiver Kanalkodierung bis zur robusten Mustererkennung in Quantenmessdaten.

Anwendung auf Quantenkanäle und sichere Übertragung

Unter Rauschen wirken Quantenkanäle \mathcal{N} auf Zustände und damit auf Kernelwerte:
K_{\mathcal{N}}(x,x') = \left|\left\langle \phi(x) \middle| \mathcal{N}^\dagger \circ \mathcal{N} \middle| \phi(x') \right\rangle\right|^2.
Die spektrale Analyse von K_{\mathcal{N}} ermöglicht das Design kanalspezifischer Feature-Maps, die informationstragende Moden konservieren. In der Kryptographie unterstützen Quantenkernel Aufgaben wie Angriffserkennung in QKD-Messserien (Anomalien im Schlüsselversatz), Kanalzustandsüberwachung oder quantensichere Wasserzeichen, indem subtile Muster in hochdimensionalen Zustandsstatistiken exponiert werden.

Langfristige Vision: Quantenbasierte Datenökosysteme

Vollständig quantenbasierte Datenanalyse

Langfristig entstehen End-to-End-Workflows, in denen Datenerzeugung, -speicherung, -verarbeitung und -auswertung innerhalb einer quanten-nativen Pipeline erfolgen. Klassische Konvertierungen werden minimiert; Daten verbleiben als Zustände in \mathcal{H}, und Analyseoperatoren (Kernel, Filter, Hypothesentests) sind unitär oder messbasiert. Dies reduziert I/O-Engpässe und verhindert Verlust durch wiederholtes Messen und Rekodieren.

Echtzeit-Datenverarbeitung auf Quantenhardware

Mit steigender Qubit-Zahl und Kohärenz wird Stream-Processing realistisch: einkommende Daten werden fortlaufend in Zustände eingebettet, Kernelwerte on-the-fly geschätzt und Entscheidungen in quasi Echtzeit gefällt. Ein vereinfachtes Online-Update einer SVM im Kernelraum lässt sich skizzieren als:
\alpha_{t+1} = \operatorname{Proj}<em>{\mathbb{R}</em>+^N}!\left(\alpha_t + \eta_t , y_t , K(\cdot, x_t)\right),
wobei die Quanteneinheit den Vektor K(\cdot, x_t) via Overlaps liefert. Industrielle Anwendungsfelder umfassen Predictive Maintenance, Börsen- und Netzwerksicherheit, Robotik und adaptive Steuerungen.

Rolle in zukünftigen KI- und IoT-Architekturen

In verteilten Architekturen könnten Edge-Quantum-Nodes Vorverarbeitung und Kernel-Schätzungen nahe an der Datenquelle durchführen, während zentrale Knoten Modelle aggregieren und global regularisieren. Quantennetzwerke verbinden Sensorik, Rechenzentren und Speicher, sodass ein föderiertes, quanten-kompatibles Lernen möglich wird. Die Kopplung mit klassischen Foundation Models eröffnet hybride Systeme: Quantenkernel liefern präzise strukturelle Ähnlichkeiten, während große Sprach- oder Vision-Modelle semantische Kontextinformationen beisteuern.

Damit zeichnet sich ein Ökosystem ab, in dem Quantum Kernel Methods nicht nur Spezialwerkzeuge sind, sondern eine infrastrukturelle Rolle übernehmen: als universelle Ähnlichkeits- und Repräsentationsschicht zwischen rohdatennaher Physik und hochabstrakter KI-Logik.

Schlussfolgerung

Zusammenfassung der zentralen Erkenntnisse

Quantum Kernel Methods als Schlüsseltechnologie zur Datentransformation

Quantum Kernel Methods haben sich als leistungsstarke Methode etabliert, um klassische Datenräume in hochdimensionale, quantenmechanische Zustandsräume einzubetten. Diese Transformation erfolgt durch unitäre Operationen, die eine nichtlineare Struktur im Feature-Raum induzieren, ohne dass diese explizit konstruiert werden muss. Die resultierenden Quantenkernel
K(x,x') = |\langle \phi(x)|\phi(x')\rangle|^2
dienen als Maß für Ähnlichkeiten in diesem erweiterten Raum und bilden die Grundlage für effiziente Klassifikations- und Regressionsmodelle.

Überlegenheit durch hochdimensionale Feature-Mappings

Durch die exponentielle Skalierung des Zustandsraumes mit der Qubit-Anzahl eröffnen Quantum Kernel Methods die Möglichkeit, komplexe Strukturen zu modellieren, die für klassische Kernelmethoden schwer zugänglich sind. Entanglement und Interferenz erzeugen Feature-Mappings mit hoher Trennschärfe, wodurch Entscheidungshyperflächen oft einfacher und stabiler werden. Dies verschafft quantenbasierten Modellen in spezifischen Problemklassen — etwa bei strukturierten, hochdimensionalen Daten — einen inhärenten Vorteil gegenüber klassischen Verfahren.

Praktische Anwendungsfelder in Wissenschaft, Technik und Wirtschaft

Die Einsatzmöglichkeiten reichen von Bild- und Mustererkennung über Molekül- und Materialanalyse bis hin zu Finanz-, Sicherheits- und Kommunikationsanwendungen. Quantum Kernel Methods können in bestehende ML-Pipelines integriert werden, um klassische Systeme um leistungsstarke, physikalisch motivierte Repräsentationen zu erweitern. Erste experimentelle Studien auf realer NISQ-Hardware zeigen bereits, dass signifikante Vorteile erzielt werden können, auch wenn die Hardware derzeit noch limitiert ist.

Ausblick

Potenzial für exponentiellen Fortschritt in KI und Datenanalyse

Mit zunehmender Hardware-Reife können Quantum Kernel Methods eine entscheidende Rolle im Übergang von klassischen zu hybriden und langfristig voll quantenbasierten KI-Systemen spielen. Sie bieten ein theoretisch gut fundiertes, robustes Framework, das sich mit etablierten Lernverfahren kombinieren lässt. Die Fähigkeit, hochkomplexe Strukturen mit vergleichsweise geringem Ressourcenaufwand darzustellen, könnte die Effizienz vieler Datenanalyseprozesse revolutionieren.

Bedeutung für die Entwicklung zukünftiger Quanteninfrastrukturen

Die Anforderungen von Quantum Kernel Methods an Hardware (niedriges Rauschen, moderate Qubit-Anzahl, kontrollierte Gate-Tiefen) decken sich mit den Entwicklungslinien moderner Quantenplattformen. Sie eignen sich daher hervorragend als „First Mover“-Technologie, um frühzeitig produktive Anwendungen auf NISQ-Geräten zu realisieren. Gleichzeitig liefern sie wertvolle Benchmarks, um den Reifegrad neuer Hardwaregenerationen zu evaluieren.

Offene Fragen als Treiber für interdisziplinäre Forschung

Trotz vielversprechender Ansätze bestehen offene Herausforderungen: Rauschtoleranz, effiziente Kernelapproximationen, Komplexitätsanalysen und Interpretierbarkeit müssen weiter erforscht werden. Diese Fragen liegen an der Schnittstelle von Quantenphysik, Informatik, Statistik und angewandter Mathematik — und eröffnen ein fruchtbares Forschungsfeld.

Die langfristige Vision besteht in vollständig quantenbasierten Datenökosystemen, in denen Quantum Kernel Methods eine fundamentale Infrastruktur für intelligente, echtzeitfähige, sichere und erklärbare Datenanalyse darstellen.

Mit freundlichen Grüßen Jörg-Owe Schneppat


Literaturverzeichnis

Im Folgenden eine wissenschaftlich kuratierte Literaturliste zu Quantum Kernel Methods, die theoretische, algorithmische und experimentelle Aspekte abdeckt. Die Liste ist bewusst interdisziplinär angelegt – mit Arbeiten aus Quanteninformation, Machine Learning, Komplexitätstheorie und NISQ-Implementierung.

Die Links verweisen auf Originalquellen oder etablierte Publikationsplattformen (Nature, arXiv, PRX, Springer, offizielle Framework-Dokumentationen).

Wissenschaftliche Zeitschriften und Artikel

  • Schuld, M., Killoran, N. (2019): “Quantum Machine Learning in Feature Hilbert Spaces.” Physical Review Letters, 122(4), 040504.
    https://doi.org/…
  • Havlíček, V. et al. (2019): “Supervised learning with quantum-enhanced feature spaces.” Nature, 567, 209–212.
    https://doi.org/…
  • Biamonte, J. et al. (2017): “Quantum Machine Learning.” Nature, 549, 195–202.
    https://doi.org/…
  • Huang, H.-Y. et al. (2021): “Power of data in quantum machine learning.” Nature Communications, 12, 2631.
    https://doi.org/…
  • Schuld, M. (2021): “Supervised quantum machine learning models are kernel methods.” arXiv preprint arXiv:2101.11020.
    https://arxiv.org/…
  • Jerbi, S., Gyurik, C., Marshall, S., Briegel, H. J., Dunjko, V. (2023): “Shadow quantum kernels for machine learning on near-term quantum computers.” Nature Communications, 14, 1273.
    https://doi.org/…
  • Thanasilp, S. et al. (2023): “Exponential advantage of quantum kernels in machine learning.” arXiv preprint arXiv:2303.01980.
    https://arxiv.org/…
  • Blank, C., Park, D. K., Rhee, J.-K. K., Petruccione, F. (2020): “Quantum classifier with tailored quantum kernel.” npj Quantum Information, 6, 41.
    https://doi.org/…
  • Liu, Y., Arunachalam, S., Temme, K. (2021): “A rigorous and robust quantum speed-up in supervised machine learning.” Nature Physics, 17, 1013–1017.
    https://doi.org/…
  • Thanasilp, S., Cincio, L., Coles, P. J. (2022): “Exponential concentration and barren plateaus in quantum kernels.” arXiv preprint arXiv:2208.11060.
    https://arxiv.org/…
  • Tao, J., Qin, D., Hu, Z., Deng, D.-L. (2023): “Quantum kernel methods: From expressivity to trainability.” Physical Review Research, 5(2), 023154.
    https://doi.org/…
  • Huang, H.-Y., Kueng, R., Preskill, J. (2022): “Information-theoretic bounds on quantum advantage in machine learning.” PRX Quantum, 3, 030304.
    https://doi.org/…
  • Kubler, J. M., Buchholz, S., Schuld, M. (2021): “The inductive bias of quantum kernels.” NeurIPS 2021.
    https://proceedings.neurips.cc/…
  • Caro, M. C., Datta, N. (2021): “Generalization bounds for quantum machine learning.” npj Quantum Information, 7, 88.
    https://doi.org/…
  • Zhao, A. et al. (2023): “Efficient quantum kernel estimation with importance sampling.” PRX Quantum, 4(2), 020328.
    https://doi.org/…

Bücher und Monographien

  • Nielsen, M. A.; Chuang, I. L. (2010): Quantum Computation and Quantum Information. Cambridge University Press.
    https://doi.org/…
  • Schuld, M.; Petruccione, F. (2018): Supervised Learning with Quantum Computers. Springer.
    https://doi.org/…
  • Benedetti, M., Lloyd, S., Perdomo-Ortiz, A. (2022): Quantum Kernel Methods: Theory and Practice. Springer.
    https://link.springer.com
  • Preskill, J. (2021): Lecture Notes on Quantum Computing. Caltech Lecture Series.
    http://theory.caltech.edu/…
  • Dunjko, V.; Briegel, H. (2023): Foundations of Quantum Machine Learning. Oxford University Press (in Vorbereitung).
    https://www.uibk.ac.at/…
  • Arute, F. et al. (Google Quantum AI, 2019): Quantum Supremacy using a Programmable Superconducting Processor. Nature.
    https://doi.org/…
  • Cerezo, M.; Verdon, G.; Coles, P. J. (2022): Variational Quantum Algorithms. Nature Reviews Physics.
    https://doi.org/…