Munich Quantum Valley (MQV) ist Bayerns fokussierter Hub, um Quantencomputer von der experimentellen Machbarkeit in Richtung wettbewerbsfähiger, betreibbarer Systeme zu entwickeln und den Transfer in konkrete Anwendungen systematisch zu beschleunigen. Im Zentrum steht nicht die nächste spektakuläre Demo, sondern die nüchterne Ingenieursfrage, wie Quantenhardware als verlässliche Infrastruktur funktioniert: mit reproduzierbarer Performance, kontrollierten Fehlerraten, stabilen Kalibrierzyklen, robustem Nutzerzugang und einer Integration, die Quantenprozessoren tatsächlich in reale Workflows einbettet.
Die Leitthese dieses Essays lautet: Der entscheidende Schritt ist nicht „mehr Qubits“, sondern betreibbare Systeme im Verbund mit HPC, Software-Stack und Talentpipeline. Erst wenn Quantenprozessoren als Co-Prozessoren in Hochleistungsrechenumgebungen laufen, entstehen die Bedingungen für skalierbare Entwicklung, faire Benchmarking-Routinen, wiederholbare Experimente und belastbare Technologie-Entscheidungen in der Industrie.
Der Text folgt dieser Logik von innen nach außen: Zuerst werden die Hardwarepfade und ihre technischen Engpässe erklärt, dann die Integrationsschicht im Rechenzentrum als Moment der Wahrheit, anschließend der Software-Stack als verbindende Abstraktion und schließlich die Anwendungsfelder, Transfermechanismen und das Ökosystem aus Institutionen, Start-ups und Ausbildung, das MQV zu einem funktionierenden Quantenstandort macht.
Ursprung, Mission, politische Logik
Der strategische Impuls
Die Bezeichnung „Valley“ ist im Kontext von Munich Quantum Valley kein Marketingetikett, sondern ein bewusst gewähltes Strukturversprechen. Gemeint ist ein räumlich und institutionell verdichteter Innovationsraum, in dem Wissen nicht linear von der Grundlagenforschung in die Anwendung fließt, sondern zirkuliert. Universitäten, außeruniversitäre Forschung, Industriepartner und öffentliche Hand agieren nicht sequenziell, sondern parallel und wechselseitig verstärkend. Dieses Clusterdenken zielt auf Skalierung: von Ideen, von Talenten, von Infrastrukturen und letztlich von technologischer Reife.
Der strategische Impuls für MQV entspringt der Einsicht, dass Quantentechnologie kein kurzfristiges Innovationsprojekt ist, sondern eine systemische Schlüsseltechnologie mit Entwicklungszyklen von Jahrzehnten. Bayern positioniert sich hier bewusst als Gestalter und nicht als Nachnutzer. Statt auf einzelne Leuchtturmprojekte zu setzen, wird eine langfristige Investitionslogik verfolgt, die Hardwareentwicklung, Software, Betrieb, Ausbildung und industrielle Anschlussfähigkeit gemeinsam adressiert. Quantentechnologie wird damit Teil einer umfassenden Hightech-Agenda, vergleichbar mit früheren Standortentscheidungen in Mikroelektronik, Luft- und Raumfahrt oder Hochleistungsrechnen.
Politisch ist MQV Ausdruck eines Paradigmenwechsels: Staatliche Förderung soll nicht nur Forschung ermöglichen, sondern aktiv Infrastrukturen schaffen, die von vielen Akteuren genutzt werden können. Der Fokus liegt auf der Fähigkeit, technologische Souveränität aufzubauen, eigene Kompetenzen zu halten und internationale Abhängigkeiten zu reduzieren. Quantencomputer werden dabei nicht als exotische Spezialgeräte verstanden, sondern als zukünftige Basistechnologie wissenschaftlicher und industrieller Wertschöpfung.
Mission in Klartext
Die Mission von Munich Quantum Valley lässt sich auf einen klaren Kern reduzieren: Quantencomputer sollen entwickelt und betrieben werden. Entscheidend ist dabei die zweite Hälfte dieses Satzes. MQV zielt explizit nicht darauf ab, isolierte Prototypen zu präsentieren oder einzelne Experimente zu demonstrieren, sondern auf den kontinuierlichen Betrieb realer Quantenrechner unter praxisnahen Bedingungen. Betrieb bedeutet hier Verfügbarkeit, Wartbarkeit, Nutzerzugang, dokumentierte Performance und die Fähigkeit, Systeme über längere Zeiträume stabil zu nutzen.
In diesem Sinne versteht sich MQV als funktionale Drehscheibe. Forschungseinrichtungen erhalten Zugang zu Hardware, die nicht nur im eigenen Labor existiert. Industriepartner finden eine Umgebung vor, in der frühe Anwendungen getestet, Algorithmen evaluiert und Integrationsfragen geklärt werden können. Förderinstitutionen treffen auf eine strukturierte Plattform, in der Investitionen sichtbar in nachhaltige Infrastruktur übersetzt werden. Gleichzeitig richtet sich MQV auch an die Öffentlichkeit, um Transparenz zu schaffen, Erwartungen realistisch einzuordnen und Akzeptanz für eine komplexe, erklärungsbedürftige Technologie aufzubauen.
Diese Vermittlungsrolle ist zentral. Quantentechnologie scheitert nicht selten weniger an physikalischen Grenzen als an fehlenden Übergängen zwischen Disziplinen. MQV positioniert sich genau an diesen Übergängen: zwischen Theorie und Ingenieurwesen, zwischen Experiment und Betrieb, zwischen Forschung und Anwendung. Die Mission ist damit nicht nur technisch, sondern organisatorisch und kulturell.
Governance: Wer ist „MQV“?
Organisatorisch ist Munich Quantum Valley als eingetragener Verein strukturiert, getragen von einem Zusammenschluss zentraler bayerischer Wissenschafts- und Forschungseinrichtungen. Dazu zählen die Bayerische Akademie der Wissenschaften, mehrere Fraunhofer-Institute, die Friedrich-Alexander-Universität Erlangen-Nürnberg, das Deutsche Zentrum für Luft- und Raumfahrt, die Ludwig-Maximilians-Universität München, die Max-Planck-Gesellschaft sowie die Technische Universität München. Diese Breite ist kein Zufall, sondern Ausdruck eines bewusst pluralen Ansatzes, der unterschiedliche wissenschaftliche Kulturen und Kompetenzen integriert.
Die Governance-Struktur spiegelt den Anspruch wider, langfristige Stabilität mit wissenschaftlicher Exzellenz zu verbinden. Ein zentrales Element ist die Rolle des Scientific Director, der die strategische Ausrichtung verantwortet und zugleich als Schnittstelle zwischen Politik, Wissenschaft und Industrie fungiert. Die Übergabe dieser Rolle von Rainer Blatt an Rudolf Gross markiert dabei einen wichtigen institutionellen Schritt. Sie steht symbolisch für den Übergang von der stark durch einzelne wissenschaftliche Persönlichkeiten geprägten Aufbauphase hin zu einer verstetigten Organisationsform.
Mit dieser Struktur schafft MQV die Voraussetzungen, um über Projektlogiken hinauszugehen. Entscheidungen werden nicht nur nach kurzfristiger wissenschaftlicher Attraktivität getroffen, sondern entlang einer gemeinsamen Roadmap. Governance wird damit selbst zu einem technologischen Faktor: Sie entscheidet darüber, ob Quantentechnologie als nachhaltige Infrastruktur wachsen kann oder im Stadium ambitionierter Einzelinitiativen verharrt.
Das MQV-Ökosystem als „Quantenmaschine“
Standortvorteil München/Bayern
Munich Quantum Valley ist untrennbar mit dem Standort München und dem wissenschaftlichen Gefüge Bayerns verbunden. Die Metropolregion fungiert als Dichtepunkt, an dem sich Universitäten, außeruniversitäre Forschungseinrichtungen, industrielle Entwicklungsabteilungen und ein aktives Venture-Umfeld räumlich und organisatorisch überlagern. Diese Dichte erzeugt kurze Wege, informelle Austauschformate und eine hohe Geschwindigkeit im Wissenstransfer. Für eine Technologie, deren Fortschritt stark von interdisziplinärer Zusammenarbeit abhängt, ist dieser Faktor von zentraler Bedeutung.
Mit der Ludwig-Maximilians-Universität und der Technischen Universität München verfügt die Region über zwei international sichtbare Forschungsschwerpunkte in Physik, Informatik und Ingenieurwissenschaften. Ergänzt wird dieses Fundament durch Max-Planck-Institute mit starker Ausrichtung auf Quantenoptik, Festkörperphysik und theoretische Grundlagen. Fraunhofer-Institute bringen anwendungsnahe Perspektiven und industrielle Entwicklungslogiken ein, während Start-ups und Risikokapitalgeber das Umfeld für Ausgründungen und frühe Marktexperimente schaffen.
Gleichzeitig ist MQV kein rein münchnerisches Projekt. Die Einbindung weiterer bayerischer Standorte, insbesondere Erlangen-Nürnberg, erweitert das Ökosystem zu einer Netzwerkarchitektur. Hier entsteht ein verteilter Campus, in dem Kompetenzen gezielt gebündelt werden, ohne sie zu zentralisieren. Diese Struktur erlaubt Spezialisierung einzelner Standorte und verhindert Redundanzen, während sie zugleich den gemeinsamen Zugriff auf Infrastruktur und Know-how sicherstellt. Bayern wird so nicht als einzelner Hotspot, sondern als kohärenter Quantenraum organisiert.
Rollenverteilung: Von Grundlagen bis Betrieb
Das MQV-Ökosystem funktioniert wie eine arbeitsteilige Maschine, in der jede Institution eine klar definierte Rolle übernimmt. Universitäten bilden das Fundament. Sie tragen die Verantwortung für Ausbildung, für die Entwicklung theoretischer Modelle, für algorithmische Konzepte und für experimentelle Grundlagenforschung. Hier entstehen die Ideen, die später in Hardware-Designs, Kontrollschemata oder neue Anwendungsansätze übersetzt werden.
Die anwendungsnahe Forschung, insbesondere in Fraunhofer-Instituten, fungiert als Brücke zwischen akademischer Exzellenz und industrieller Realität. Hier werden Prototypen in Richtung Robustheit, Skalierbarkeit und Fertigungsnähe weiterentwickelt. Fragestellungen wie Zuverlässigkeit, Testbarkeit oder Integration in bestehende Systeme stehen im Vordergrund. Diese Perspektive ist entscheidend, um zu verhindern, dass Quantenhardware an den Anforderungen realer Nutzungsszenarien scheitert.
Eine besondere Rolle nimmt das Supercomputing-Zentrum ein. Es wirkt als Realitätsfilter für die gesamte Entwicklung. Im Betrieb von Hochleistungsrechnern treffen ambitionierte Konzepte auf harte Randbedingungen: Verfügbarkeit, Nutzerverwaltung, Sicherheitsanforderungen, Wartungszyklen und Energieeffizienz. Die Integration von Quantencomputern in diese Umgebung zwingt alle Beteiligten dazu, ihre Systeme unter realen Bedingungen zu testen. Erst hier zeigt sich, ob eine Technologie nicht nur physikalisch funktioniert, sondern auch infrastrukturell tragfähig ist.
Öffentlichkeits- und Bildungsdimension
Neben Forschung und Betrieb versteht sich MQV explizit auch als gesellschaftliches Projekt. Quantentechnologie ist erklärungsbedürftig, ihre Potenziale werden häufig überschätzt, ihre zeitlichen Horizonte missverstanden. Outreach-Formate und öffentliche Veranstaltungen sind daher kein Beiwerk, sondern integraler Bestandteil des Ökosystems.
Events, Ausstellungen und Dialogformate, etwa in Kooperation mit wissenschaftlichen Museen, schaffen Räume, in denen komplexe Inhalte verständlich vermittelt werden können. Sie richten sich nicht nur an Fachpublikum, sondern an eine breitere Öffentlichkeit, an Studierende, Lehrkräfte und politische Entscheidungsträger. Diese Bildungsdimension stärkt langfristig die Talentpipeline und fördert ein realistisches Verständnis für Chancen und Grenzen der Technologie.
In dieser Kombination aus Dichte, Rollenverteilung und öffentlicher Einbettung wird MQV zur Quantenmaschine im eigentlichen Sinne: nicht als einzelnes Gerät, sondern als funktionierendes System aus Menschen, Institutionen und Infrastruktur.
Hardware-Säule I: Supraleitende Qubits – der Weg zur Rechenzentrumsfähigkeit
Warum supraleitend?
Supraleitende Qubits gelten international als einer der am weitesten entwickelten Ansätze für universelle, gate-basierte Quantencomputer. Ihr zentrales physikalisches Prinzip beruht auf makroskopischen Quantenzuständen in supraleitenden Schaltkreisen, die bei extrem niedrigen Temperaturen betrieben werden. Der technologische Reiz dieser Plattform liegt vor allem in ihrer Nähe zur klassischen Mikroelektronik. Strukturen werden mit etablierten Mikro- und Nanofabrikationsverfahren hergestellt, die aus der Halbleiterindustrie bekannt sind. Dies ermöglicht präzise Geometrien, reproduzierbare Fertigungsprozesse und perspektivisch eine Skalierung über Wafer-basierte Produktionsketten.
Ein wesentlicher Vorteil supraleitender Qubits sind ihre schnellen Gate-Operationen. Typische Ein- und Zwei-Qubit-Gates operieren im Nanosekundenbereich, was eine hohe Anzahl von Operationen innerhalb der endlichen Kohärenzzeit erlaubt. In abstrakter Form lässt sich die zentrale Herausforderung dieser Plattform als Optimierungsproblem zwischen Gategeschwindigkeit \(t_g\) und Kohärenzzeit \(T_2\) formulieren, wobei für zuverlässige Berechnungen gilt \(t_g \ll T_2\). Fortschritte in Materialqualität, Design und Kontrolle zielen genau auf diese Ungleichung.
Dem stehen jedoch erhebliche Trade-offs gegenüber. Supraleitende Qubits erfordern Temperaturen im Millikelvin-Bereich, was den Einsatz komplexer Kryotechnik notwendig macht. Kühlleistung, Verkabelung und elektromagnetische Abschirmung werden mit wachsender Qubitzahl zu dominanten Engineering-Problemen. Hinzu kommt Rauschen, das aus Materialdefekten, Oberflächenzuständen und Kopplungen zur Umgebung resultiert. Diese Effekte begrenzen die Kohärenz und führen zu Fehlerraten, die nicht allein durch bessere Algorithmen kompensiert werden können. Supraleitende Qubits sind daher weniger eine rein physikalische Herausforderung als ein Systemproblem aus Materialien, Design, Elektronik und Betrieb.
Q-Exa als bayerisches Arbeitspferd
Vor diesem Hintergrund ist Q-Exa im Rahmen von Munich Quantum Valley bewusst als pragmatisches Arbeitspferd konzipiert. Das System basiert auf 20 supraleitenden Qubits und ist am Leibniz-Rechenzentrum installiert. Entscheidend ist dabei nicht allein die Qubitanzahl, sondern die Einbettung in eine reale Hochleistungsrechenumgebung. Q-Exa ist direkt mit dem SuperMUC-NG gekoppelt und bildet damit ein hybrides System aus klassischem Hochleistungsrechnen und Quantenverarbeitung.
Diese Hybridität ist kein symbolischer Akt, sondern ein technischer Stresstest. In einem solchen Setup werden Quantenjobs nicht isoliert gestartet, sondern in bestehende Workflows integriert. Klassische Vor- und Nachverarbeitung, etwa bei Variationsalgorithmen, erfolgt auf dem Supercomputer, während der Quantenprozessor spezifische Teilprobleme übernimmt. Formal lässt sich dies als iterative Schleife beschreiben, in der klassische Optimierung und quantenmechanische Zustandsentwicklung alternieren, etwa in der Form \(\theta_{k+1} = \theta_k - \eta \nabla_\theta C(\theta_k)\), wobei die Kostenfunktion \(C(\theta)\) teilweise auf dem Quantenprozessor ausgewertet wird.
Die Bedeutung dieses Ansatzes liegt in den nicht-trivialen Fragen des Betriebs. Scheduling entscheidet darüber, wie Quantenjobs priorisiert, unterbrochen oder wiederholt werden. Datenpfade müssen definiert werden, um Messdaten effizient und sicher zwischen Quanten- und klassischen Systemen zu übertragen. Nutzerzugang erfordert Authentifizierungs- und Abrechnungskonzepte, die sowohl akademischen als auch industriellen Anforderungen genügen. Fehlermodelle müssen in den Betrieb integriert werden, um Messergebnisse korrekt zu interpretieren und Vergleichbarkeit herzustellen. In diesem Sinne bedeutet „hybrid“ eine neue Klasse von Systemarchitektur, nicht nur die Koexistenz zweier Rechner.
Industrialisierung der Hardware
Damit supraleitende Qubits den Schritt von Forschungsgeräten zu Produkten schaffen, ist Industrialisierung unverzichtbar. Hier kommt die Rolle anwendungsnaher Forschungseinrichtungen ins Spiel. Der Fokus liegt auf der Entwicklung skalierbarer Fertigungsprozesse, die über einzelne Laborprototypen hinausgehen. Wafer-basierte Herstellung erlaubt es, viele Qubits in einem konsistenten Prozess herzustellen und statistisch zu charakterisieren. Gleichzeitig rückt 3D-Integration in den Vordergrund, bei der Qubitchips, Kontroll- und Ausleseelektronik sowie Verbindungsebenen räumlich getrennt, aber funktional integriert werden.
Die entscheidende Frage lautet: Wo liegt der eigentliche Engpass? Ist es die absolute Qubitanzahl, die sich erhöhen lässt, oder der Yield, also der Anteil funktionierender Qubits pro Wafer? Sind es Packaging-Lösungen, die bei steigender Komplexität an ihre Grenzen stoßen? Oder ist die Kryo-Peripherie der limitierende Faktor, weil Verkabelung und Kühlleistung nicht beliebig skalierbar sind? Ein zunehmend kritischer Punkt ist zudem die Kalibrier-Automation. Während wenige Qubits noch manuell abgestimmt werden können, erfordert ein System mit hunderten oder tausenden Qubits automatisierte Verfahren, die Stabilität und Reproduzierbarkeit gewährleisten.
Vom Qubit zum QPU-Produkt
Design → Fertigung → Packaging → Cryo-Test → Charakterisierung → Deployment
Diese Pipeline verdeutlicht, dass supraleitende Quantenhardware nicht an einer einzelnen physikalischen Grenze scheitert, sondern an der Komplexität des Gesamtsystems. Munich Quantum Valley adressiert genau diese Komplexität, indem es Entwicklung, Betrieb und Industrialisierung in einem gemeinsamen Rahmen zusammenführt.
Hardware-Säule II: Ionenfallen – Präzision als Testbett für Fehlertoleranz & Integration
Warum Ionen?
Ionenfallen zählen zu den präzisesten Plattformen für gate-basierte Quantencomputer. Das physikalische Grundprinzip ist vergleichsweise elegant: einzelne, elektrisch geladene Atome werden in elektromagnetischen Feldern gefangen und mit Laserlicht kontrolliert. Die Qubits sind dabei interne elektronische Zustände der Ionen, deren Eigenschaften durch die Natur selbst extrem homogen sind. Diese Homogenität führt zu außergewöhnlich hohen Kohärenzzeiten und sehr niedrigen intrinsischen Fehlerraten. In idealisierter Form kann man sagen, dass für Ionenqubits häufig \(T_2 \gg T_2^{\text{supraleitend}}\) gilt, was sie besonders attraktiv für präzise Quantenoperationen macht.
Ein weiterer Vorteil liegt in der Qualität der Zwei-Qubit-Gates. Durch kollektive Schwingungsmoden der Ionen lassen sich stark kontrollierte Wechselwirkungen erzeugen, die zu hoher Gate-Fidelity führen. Für viele experimentelle Implementierungen erreichen diese Werte bereits Bereiche, die für erste Konzepte der Fehlertoleranz relevant sind. Ionenfallen bieten damit ein sauberes Testbett, um theoretische Modelle der Quantenfehlerkorrektur unter realistischen Bedingungen zu prüfen.
Die Kehrseite dieser Präzision liegt in den Trade-offs. Gate-Operationen sind im Vergleich zu supraleitenden Qubits deutlich langsamer und bewegen sich typischerweise im Mikrosekundenbereich. Formal bedeutet dies, dass das Verhältnis von Gatedauer \(t_g\) zu Kohärenzzeit zwar günstig ist, die absolute Rechenzeit eines Algorithmus jedoch schnell anwächst. Hinzu kommt die Herausforderung der Skalierung. Während kleine Ketten von Ionen sehr gut kontrollierbar sind, wird das Management größerer Systeme komplexer, etwa durch Modenspektren, Laseradressierung und mechanische Stabilität. Ionenfallen verschieben die Grenzen der Quanteninformatik daher weniger über Geschwindigkeit, sondern über Präzision und Kontrollierbarkeit.
Beschaffung & Betrieb: AQT-System am LRZ
Im Rahmen von Munich Quantum Valley wurde bewusst ein Ionenfallen-Quantencomputer von Alpine Quantum Technologies beschafft und am Leibniz-Rechenzentrum im Quantum Integration Centre installiert. Das System verfügt über 20 Qubits und ergänzt die supraleitende Plattform um einen technologisch kontrastierenden Ansatz. Diese Parallelität ist strategisch: Sie erlaubt direkte Vergleiche unter identischen Betriebsbedingungen und verhindert eine einseitige Abhängigkeit von einer einzelnen Hardwaretechnologie.
Der Betrieb eines Ionenfallen-Systems in einer Hochleistungsrechenumgebung ist mehr als ein infrastrukturelles Detail. Die HPC-Umgebung fungiert als Stress-Test für die Integration. Fragen der Synchronisation zwischen klassischen und quantenmechanischen Rechenprozessen, der Datenübertragung sowie der Nutzerverwaltung stellen sich hier ebenso wie bei supraleitenden Systemen, jedoch mit anderen zeitlichen und technischen Charakteristika. Die längeren Gatezeiten erfordern angepasste Scheduling-Strategien, und die Stabilität über lange Laufzeiten wird zu einem zentralen Bewertungskriterium.
Aus Perspektive der Fehlertoleranzforschung bietet diese Plattform einen besonderen Mehrwert. Ionenfallen erlauben es, komplexere Fehlerkorrekturprotokolle mit hoher Präzision zu testen, ohne sofort durch hohe Rauschpegel limitiert zu sein. In abstrakter Form lässt sich die Wirksamkeit eines Codes etwa über die logische Fehlerrate \(p_L\) als Funktion der physikalischen Fehlerrate \(p\) beschreiben, wobei für praktikable Fehlertoleranz gilt \(p_L(p) \ll p\). Ionenbasierte Systeme sind prädestiniert, diese Regime experimentell zu erkunden und die Lücke zwischen Theorie und Betrieb zu schließen.
Personen- und Transferdimension
Die Bedeutung der Ionenfallenplattform im MQV-Kontext geht über technische Aspekte hinaus. Sie steht exemplarisch für die Nähe von Grundlagenforschung und unternehmerischem Transfer. Der Gründerkreis von Alpine Quantum Technologies, zu dem Persönlichkeiten wie Rainer Blatt, Peter Zoller und Thomas Monz zählen, verkörpert eine Forschungskultur, in der theoretische Konzepte, experimentelle Exzellenz und wirtschaftliche Umsetzung eng miteinander verbunden sind.
Diese Verbindung ist für ein Ökosystem wie MQV von strategischem Wert. Sie zeigt, dass Spitzenforschung nicht zwangsläufig im akademischen Raum verbleiben muss, sondern in industrielle Strukturen überführt werden kann, ohne ihre wissenschaftliche Tiefe zu verlieren. Gleichzeitig profitieren die beteiligten Wissenschaftler von der Infrastruktur und dem Betriebswissen eines Rechenzentrums, das neue Fragestellungen ermöglicht. Ionenfallen werden so nicht nur zu einer Hardware-Säule, sondern zu einem kulturellen Bindeglied zwischen Forschung, Unternehmertum und langfristiger Technologieentwicklung.
Hardware-Säule III: Neutrale Atome – Skalierungspotenzial mit niedrigerer TRL
TAQC: Neutralatom-Ansatz im MQV
Der Trapped-Atom Quantum Computer, kurz TAQC, repräsentiert im Rahmen von Munich Quantum Valley den bewusst experimentellsten der drei verfolgten Hardwarepfade. Im Unterschied zu supraleitenden Schaltkreisen oder Ionenfallen basiert dieser Ansatz auf neutralen Atomen, typischerweise Strontium, die in optischen Gittern oder optischen Pinzetten gefangen werden. Die Qubits werden durch interne atomare Zustände realisiert, während kontrollierte Wechselwirkungen über laserinduzierte Prozesse, etwa über hochangeregte Rydberg-Zustände, erzeugt werden.
Der besondere Reiz dieses Ansatzes liegt im inhärenten Skalierungspotenzial. Neutrale Atome lassen sich in großen zweidimensionalen oder dreidimensionalen Arrays anordnen, wobei jedes Atom nahezu identisch ist. In idealisierter Form skaliert die Anzahl der Qubits direkt mit der Anzahl der Fallenplätze \(N \approx N_{\text{Gitter}}\), ohne dass für jedes Qubit eine individuelle elektrische Zuleitung erforderlich ist. Dies unterscheidet den Ansatz fundamental von supraleitenden Systemen, bei denen Verkabelung und Kryo-Peripherie schnell zu limitierenden Faktoren werden.
TAQC verfolgt einen gate-basierten Ansatz, der prinzipiell universelle Quantenberechnung erlaubt. Gleichzeitig befindet sich diese Technologie auf einem niedrigeren Technology Readiness Level. Gate-Fidelities, Adressierung einzelner Qubits und die Kontrolle von Crosstalk sind aktive Forschungsfelder. Auch die Stabilität der atomaren Anordnung über lange Zeiträume und die Wiederholbarkeit komplexer Sequenzen stellen Herausforderungen dar. Neutralatom-Systeme sind daher weniger für den unmittelbaren Dauerbetrieb optimiert, sondern dienen im MQV-Kontext als Plattform, um radikal neue Skalierungskonzepte unter realistischen Laborbedingungen zu erforschen.
Strategische Einordnung
Die Entscheidung von Munich Quantum Valley, mehrere Hardwarepfade parallel zu verfolgen, ist Ausdruck einer nüchternen Risikobetrachtung. Quantentechnologie ist ein Feld mit hoher Unsicherheit, in dem sich langfristig nicht vorhersagen lässt, welcher Ansatz die besten Kompromisse zwischen Skalierbarkeit, Fehlerraten, Betriebskosten und Integrationsfähigkeit bieten wird. Anstatt frühzeitig auf einen vermeintlichen Gewinner zu setzen, verfolgt MQV eine Portfolio-Strategie.
Supraleitende Qubits adressieren kurzfristig die Frage der Rechenzentrumsfähigkeit und des Betriebs. Ionenfallen bieten ein präzises Testbett für Fehlertoleranz und Systemintegration. Neutrale Atome eröffnen die Perspektive auf große Qubit-Arrays, die jenseits heutiger technologischer Grenzen liegen. Diese Pfade konkurrieren nicht unmittelbar miteinander, sondern besetzen unterschiedliche Regionen im Raum aus Reifegrad und Innovationspotenzial.
Ein entscheidender Aspekt dieser Strategie ist die angestrebte Konvergenz auf höheren Abstraktionsebenen. Auch wenn sich die physikalischen Implementierungen stark unterscheiden, können Software-Schnittstellen, Programmiersprachen, Fehlermodelle und Workflows vereinheitlicht werden. In dieser Sichtweise ist Hardware austauschbar, solange sie definierte Leistungs- und Zuverlässigkeitsparameter erfüllt. Formal lässt sich dies als Abbildung einer hardwareabhängigen Zustandsentwicklung \(\mathcal{E}_h\) auf eine hardwareunabhängige logische Beschreibung \(\mathcal{L}\) verstehen, wobei gilt \(\mathcal{L} \circ \mathcal{E}_h \approx \mathcal{U}\), mit \(\mathcal{U}\) als idealer Quantenoperation.
TAQC erfüllt damit eine doppelte Rolle im MQV-Ökosystem. Einerseits dient es als Explorationsplattform für neue physikalische Konzepte und Skalierungsstrategien. Andererseits zwingt es die Software- und Integrationsschicht dazu, mit hoher Heterogenität umzugehen. Gerade diese Herausforderung stärkt langfristig die Robustheit des Gesamtsystems. Neutrale Atome sind somit weniger eine kurzfristige Lösung als ein strategischer Hebel, um das Innovationsspektrum von Munich Quantum Valley bewusst offen zu halten.
Die Integrations-Säule: LRZ, QIC und der Moment der Wahrheit
Quantum Integration Centre (QIC) als Betriebsplattform
Das Quantum Integration Centre, kurz QIC, bildet das operative Herzstück von Munich Quantum Valley. Angesiedelt am Leibniz-Rechenzentrum übernimmt es eine Rolle, die in der Quantenforschung lange gefehlt hat: den dauerhaften, professionellen Betrieb von Quantencomputern als Teil einer bestehenden Rechenzentrumsinfrastruktur. Damit verschiebt sich der Fokus grundlegend. Quantencomputer sind hier nicht mehr primär Forschungsobjekte, sondern technische Systeme, die zuverlässig verfügbar sein müssen.
Der Betrieb im QIC umfasst weit mehr als das Einschalten von Hardware. Er beinhaltet klar definierte Schnittstellen zwischen Quantenprozessoren und klassischen Hochleistungsrechnern, standardisierte Zugangsmechanismen für Nutzerinnen und Nutzer sowie Schulungs- und Supportstrukturen. Quantencomputer werden als Service gedacht, vergleichbar mit klassischen Rechenknoten oder spezialisierten Beschleunigern. Diese Service-Perspektive zwingt dazu, Fragen zu adressieren, die im Laboralltag oft ausgeblendet werden: Wer darf wann rechnen? Wie werden Ressourcen priorisiert? Wie werden Fehler dokumentiert und kommuniziert?
Besonders relevant ist der langfristige Zeithorizont. Im Gegensatz zu kurzlebigen Forschungsaufbauten ist das QIC auf Jahre ausgelegt. Hardware wird nicht nur installiert, sondern über längere Zeiträume gewartet, aktualisiert und beobachtet. Dadurch entstehen Datensätze über Alterung, Drift und Stabilität, die für die Weiterentwicklung der Technologie entscheidend sind. Das QIC wird so zu einem Lernsystem, in dem Betriebserfahrung selbst zur Forschungsressource wird.
„User Operation“: Wenn Forschung zu Infrastruktur wird
Mit dem Übergang zur User Operation erreicht die MQV-Infrastruktur einen qualitativen Wendepunkt. Ab dem Jahr 2025 ist Rechenzeit auf den Quantencomputern nicht mehr ausschließlich projektintern nutzbar, sondern über formalisierte Antragsverfahren zugänglich. Nutzerinnen und Nutzer greifen remote auf die Systeme zu, ohne physisch vor Ort zu sein. Sowohl das Ionenfallen-System von AQT als auch der supraleitende Quantencomputer Q-Exa sind dabei in die HPC-Umgebung integriert.
Diese Öffnung hat tiefgreifende Konsequenzen für die Nutzung. Forschende denken nicht mehr in einzelnen Experimenten, die manuell gestartet und überwacht werden, sondern in Jobs, Workflows und Warteschlangen. Ein Quantenjob wird zu einer Einheit, die geplant, eingereiht, ausgeführt und ausgewertet wird. Der Ablauf ähnelt klassischen HPC-Workflows, erweitert um die Besonderheiten quantenmechanischer Systeme. Formal lässt sich ein solcher Workflow als Abfolge klassischer und quantenmechanischer Schritte modellieren, etwa \(W = {C_1 \rightarrow Q \rightarrow C_2}\), wobei \(C_i\) klassische Rechenschritte und \(Q\) eine Quantenroutine repräsentieren.
Diese Perspektive verändert auch die Erwartungshaltung. Nutzerinnen und Nutzer akzeptieren keine singulären Erfolgsmeldungen, sondern verlangen reproduzierbare Ergebnisse. Wenn ein Job fehlschlägt, muss klar sein, ob dies auf statistische Fluktuationen, Hardwareprobleme oder Nutzerfehler zurückzuführen ist. Infrastruktur ersetzt hier das Experiment und schafft neue Standards für Qualität und Transparenz.
Was „hybrid“ technisch bedeutet
Der Begriff „hybrid“ wird im Kontext von Quantencomputing häufig verwendet, bleibt aber oft abstrakt. Im QIC erhält er eine konkrete technische Bedeutung. Hybridität beginnt bei den Latenzen. Klassische Rechenschritte auf einem Supercomputer sind typischerweise extrem schnell, während Zugriffe auf den Quantenprozessor zusätzliche Verzögerungen durch Netzwerk, Steuerungselektronik und Messprozesse verursachen. Diese Latenzen müssen in Algorithmen und Workflows berücksichtigt werden, da sie die Effizienz iterativer Verfahren maßgeblich beeinflussen.
Ein weiterer zentraler Punkt ist die Datenbewegung. Messdaten aus dem Quantenprozessor müssen in Echtzeit oder nahezu in Echtzeit an klassische Systeme übertragen werden. Dabei entstehen Fragen der Bandbreite, der Datenformate und der Synchronisation. Job-Scheduling wird komplexer, da Quantenressourcen knapp sind und nicht beliebig parallelisiert werden können. Scheduler müssen entscheiden, ob ein Job sofort ausgeführt, verzögert oder abgebrochen wird, ohne die Stabilität des Gesamtsystems zu gefährden.
Fehlermodelle und Kalibrierzyklen sind eng mit dem Betrieb verknüpft. Quantenhardware erfordert regelmäßige Kalibrierung, deren Ergebnisse die Interpretation von Messdaten beeinflussen. Im Betrieb müssen diese Informationen versioniert und mit jedem Job verknüpft werden. Qualitätsmetriken werden damit zu einem zentralen Steuerungsinstrument. Dazu zählen die Uptime des Systems, die Reproduzierbarkeit identischer Jobs, die Stabilität von Kalibrierparametern über die Zeit sowie die Wartbarkeit der Hardware.
In dieser Gesamtschau wird das QIC zum Moment der Wahrheit für MQV. Hier entscheidet sich, ob Quantencomputer den Schritt von faszinierenden Forschungsobjekten zu belastbarer Infrastruktur schaffen. Integration ist dabei kein Nebenschauplatz, sondern der entscheidende Prüfstein für die Zukunft der Technologie.
Die Software-Säule: Munich Quantum Software Stack (MQSS) als „unsichtbares Nervensystem“
Warum ein eigener Stack?
Mit der Entscheidung, mehrere Quantenhardware-Plattformen parallel zu betreiben, steht Munich Quantum Valley vor einer grundlegenden softwareseitigen Herausforderung. Supraleitende Qubits, Ionenfallen und neutrale Atome unterscheiden sich nicht nur physikalisch, sondern auch in ihren Kontrollmechanismen, Zeitauflösungen, Fehlermodellen und Betriebszyklen. Ohne eine verbindende Softwareebene würde jede Plattform eine eigene, isolierte Toolchain erfordern. Das Ergebnis wäre Fragmentierung statt Skalierung.
Ein eigener Software-Stack ist daher keine Kür, sondern eine Notwendigkeit. Er schafft Abstraktionen, die es erlauben, Quantenhardware als Ressource zu behandeln, unabhängig von ihrer konkreten Implementierung. Für Nutzerinnen und Nutzer bedeutet dies, dass sie Algorithmen formulieren können, ohne sich in jedem Schritt mit hardware-spezifischen Details auseinandersetzen zu müssen. Für den Betrieb bedeutet es, dass Geräte verwaltet, überwacht und vergleichbar gemacht werden können.
Zentral ist dabei das Device-Management. Jedes Quantenbackend besitzt einen Zustand, der sich über die Zeit ändert: Kalibrierparameter, verfügbare Gate-Sätze, Konnektivität, Fehlerraten. Diese Informationen müssen versioniert und als Metadaten zugänglich gemacht werden. Nur so lassen sich Ergebnisse reproduzieren und über längere Zeiträume vergleichen. In abstrakter Form lässt sich ein Quantenjob als Paar \((P, M)\) auffassen, wobei \(P\) das Programm und \(M\) die zugehörigen Metadaten beschreibt. Ohne \(M\) verliert das Ergebnis seinen wissenschaftlichen Wert.
MQSS & QDMI
Der Munich Quantum Software Stack (MQSS) bildet genau diese verbindende Schicht. Er fungiert als Zugangsebene zwischen End-Usern und der darunterliegenden Hardwarelandschaft. MQSS kapselt die Komplexität der unterschiedlichen Plattformen und stellt ein konsistentes Interface bereit, über das Quantenprogramme eingereicht, ausgeführt und ausgewertet werden können.
Eine zentrale Komponente innerhalb dieses Stacks ist das Quantum Device Management Interface (QDMI). QDMI ist dafür verantwortlich, die Eigenschaften gate-basierter Quantencomputer formal zu beschreiben und in maschinenlesbarer Form bereitzustellen. Dazu zählen unter anderem verfügbare Gate-Operationen, Topologien, zeitliche Restriktionen und aktuelle Kalibrierzustände. QDMI übersetzt damit die physikalische Realität eines Geräts in eine softwareseitige Repräsentation, die von Compilern, Schedulern und Analysewerkzeugen genutzt werden kann.
Besonders wichtig ist die Fähigkeit, Hardwareconstraints explizit zu berücksichtigen. Ein idealisiertes Quantenprogramm beschreibt eine unitäre Operation \(\mathcal{U}\), während reale Hardware nur eine Approximation \(\tilde{\mathcal{U}}_h\) ausführen kann, die vom jeweiligen Gerät \(h\) abhängt. MQSS und QDMI bilden die Brücke zwischen diesen beiden Ebenen, indem sie Programme anpassen, optimieren oder annotieren, sodass sie auf der verfügbaren Hardware sinnvoll ausführbar sind.
Die Entwicklung des Stacks erfolgt nicht im luftleeren Raum. Prototypen werden direkt an realen Systemen erprobt, insbesondere im Zusammenspiel mit dem supraleitenden Quantencomputer Q-Exa und dessen Integration in die HPC-Umgebung am LRZ. Diese Nähe zum Betrieb ist entscheidend, da sie sicherstellt, dass Softwareentscheidungen nicht nur theoretisch elegant, sondern praktisch tragfähig sind.
Nutzererlebnis: Portale, APIs, Workflows
Für die meisten Nutzerinnen und Nutzer manifestiert sich der MQSS nicht als abstrakte Architektur, sondern über konkrete Zugangspunkte. Das Munich Quantum Portal, kurz MQP, ist dabei der sichtbare „Türgriff zur Infrastruktur“. Über das Portal werden Quantenressourcen entdeckt, Jobs eingereicht, Ergebnisse abgerufen und Systemzustände eingesehen. Es übersetzt die Komplexität der darunterliegenden Ebenen in eine handhabbare Benutzererfahrung.
Neben grafischen Oberflächen spielen Programmierschnittstellen eine zentrale Rolle. APIs ermöglichen es, Quantenjobs direkt aus bestehenden Entwicklungsumgebungen oder automatisierten Workflows heraus zu starten. Damit wird Quantencomputing Teil größerer Softwarepipelines, anstatt als isolierter Sonderfall behandelt zu werden. Ein typischer Workflow kann dabei klassische Simulation, Quantenberechnung und Auswertung kombinieren, etwa in der Struktur \(W = {C_{\text{prep}} \rightarrow Q \rightarrow C_{\text{analysis}}}\).
Der wissenschaftliche Kontext dieser Entwicklung ist eng mit aktuellen Arbeiten zur Integration von Hochleistungsrechnen und Quantencomputing verbunden. Themen wie Co-Scheduling, hybride Laufzeitmodelle und die Standardisierung von Interfaces sind Gegenstand intensiver Forschung. MQSS positioniert sich hier nicht als Konkurrenz zu bestehenden Frameworks, sondern als ortsspezifische Implementierung, die die besonderen Anforderungen des MQV-Ökosystems adressiert.
Gedanklich lässt sich die Architektur des Gesamtsystems als Schichtenmodell darstellen: User → Portal oder SDK → MQSS mit QDMI → QPU → HPC-Workflow. Diese Schichtung macht deutlich, warum Software das unsichtbare Nervensystem von Munich Quantum Valley ist. Sie verbindet heterogene Hardware, strukturiert den Betrieb und ermöglicht es erst, dass aus einzelnen Quantencomputern eine funktionierende Infrastruktur wird.
Anwendungen & Industrieweg: Wofür MQV den „Proof of Value“ liefern muss
Anwendungsfelder im Realitätscheck
Die Frage nach Anwendungen ist im Kontext von Quantencomputing zugleich unvermeidlich und heikel. Munich Quantum Valley steht hier vor der Aufgabe, zwischen langfristigem Potenzial und kurzfristigem Nutzenfenster klar zu unterscheiden. Zu den meistdiskutierten Anwendungsfeldern zählen Quantenchemie, Materialwissenschaften, kombinatorische Optimierung und maschinelles Lernen. In all diesen Bereichen existieren theoretische Argumente, warum Quantencomputer klassischen Systemen überlegen sein könnten. In der aktuellen NISQ-Ära ist dieser Vorteil jedoch nicht automatisch gegeben.
In der Quantenchemie etwa verspricht die Simulation molekularer Elektronenstrukturen eine genauere Beschreibung von Reaktionsmechanismen oder Materialeigenschaften. Theoretisch lässt sich der Aufwand klassischer Simulationen oft nur exponentiell mit der Systemgröße skalieren, während Quantenalgorithmen hier polynomial bleiben können. Praktisch sind heutige Systeme jedoch durch Qubitanzahl und Fehlerraten limitiert. Das Nutzenfenster beschränkt sich daher auf kleine Moleküle oder stark vereinfachte Modelle. Ähnliches gilt für Materialsimulationen, bei denen realistische Systeme noch außerhalb der Reichweite liegen.
Optimierungsprobleme und maschinelles Lernen gelten als besonders industrienah, da sie in Logistik, Finanzwesen und industrieller Planung allgegenwärtig sind. Doch auch hier zeigt sich ein nüchternes Bild. Viele vorgeschlagene Quantenalgorithmen liefern nur unter idealisierten Annahmen Vorteile. In realen NISQ-Systemen konkurrieren sie mit hochoptimierten klassischen Heuristiken. MQV verfolgt daher einen bewusst ehrlichen Ansatz: Nicht jede Quantenanwendung ist heute sinnvoll, und nicht jeder theoretische Speed-up ist praktisch relevant.
Hybrid als realistische Brücke
Aus dieser Erkenntnis heraus rückt der hybride Ansatz in den Mittelpunkt. Quantencomputer werden nicht als Ersatz klassischer Systeme verstanden, sondern als spezialisierte Co-Prozessoren für klar definierte Teilaufgaben. In hybriden Workflows übernehmen klassische Hochleistungsrechner die datenintensiven, deterministischen Schritte, während der Quantenprozessor für Subroutinen eingesetzt wird, bei denen quantenmechanische Effekte einen Mehrwert versprechen.
Ein typisches Beispiel sind variationale Algorithmen, bei denen ein klassischer Optimierer Parameter \(\theta\) aktualisiert und ein Quantenprozessor die zugehörige Kostenfunktion \(C(\theta)\) auswertet. Der Rechenprozess ist dabei zyklisch organisiert und lässt sich formal als iterative Schleife beschreiben. Der Vorteil liegt weniger in einem dramatischen Geschwindigkeitsgewinn, sondern in der Möglichkeit, neue Lösungsräume zu erkunden, die klassisch schwer zugänglich sind.
Für den Industrieweg ist dieser Ansatz entscheidend. Unternehmen benötigen keine Visionen ferner Quantenüberlegenheit, sondern belastbare Szenarien, in denen Quantenhardware heute oder in naher Zukunft einen Zusatznutzen liefert. Der hybride Betrieb im MQV-Umfeld erlaubt es, solche Szenarien systematisch zu testen, zu messen und zu verwerfen oder weiterzuentwickeln. Proof of Value bedeutet hier nicht, einen universellen Vorteil zu demonstrieren, sondern einen konkreten, reproduzierbaren Mehrwert in einem abgegrenzten Kontext nachzuweisen.
Safety und Verlässlichkeit als industrielle Kernanforderung
Ein oft unterschätzter Aspekt auf dem Weg in industrielle Anwendungen ist die Frage der Sicherheit und Verlässlichkeit. Gerade in sicherheitskritischen Bereichen, etwa in der Mobilität, der Energieversorgung oder der Medizintechnik, genügt es nicht, dass ein Algorithmus im Mittel funktioniert. Es muss nachvollziehbar sein, unter welchen Bedingungen Ergebnisse gültig sind und wie Fehler erkannt und behandelt werden.
Hier spielt die Perspektive der Robustheit eine zentrale Rolle. Anwendungsnahe Forschungseinrichtungen wie Fraunhofer IKS bringen Methoden ein, um Unsicherheiten systematisch zu analysieren. Dazu gehören Fehlermodellierung, Sensitivitätsanalysen und Strategien zur Absicherung hybrider Workflows. Ein hybrides System kann beispielsweise so ausgelegt werden, dass Quantenresultate durch klassische Plausibilitätschecks validiert werden, bevor sie in kritische Entscheidungsprozesse einfließen.
Für MQV bedeutet dies, dass Proof of Value nicht isoliert von Proof of Reliability gedacht werden kann. Erst wenn Quantenanwendungen nicht nur potenziell nützlich, sondern auch nachvollziehbar, überprüfbar und sicher sind, werden sie den Sprung in industrielle Praxis schaffen. In dieser Kombination aus realistischer Anwendungsauswahl, hybrider Integration und verlässlichem Betrieb liegt der eigentliche Mehrwert, den Munich Quantum Valley liefern muss.
Start-ups, Talent und Transfer: Das Valley muss wirtschaftlich „zünden“
Gründer-Storylines als Ökosystem-Signal
Ein technologisches Valley ist erst dann mehr als ein Forschungscluster, wenn aus Ideen Unternehmen entstehen. Für Munich Quantum Valley sind Start-ups daher kein Randphänomen, sondern ein zentraler Indikator für wirtschaftliche Wirksamkeit. Gründer-Storylines fungieren als Signale nach innen und außen: Sie zeigen Nachwuchswissenschaftlerinnen und -wissenschaftlern, dass unternehmerische Wege realistisch sind, und sie machen Investoren und Industrie auf das entstehende Ökosystem aufmerksam.
Ein Beispiel ist Peak Quantum, gegründet von Leon Koch. Das Umfeld des Walther-Meißner-Instituts spielt hierbei eine entscheidende Rolle. Als Ort, an dem supraleitende Quantenhardware, Materialforschung und Tieftemperaturphysik zusammenkommen, wirkt das Institut wie ein Spin-off-Biotop. Hier entstehen nicht nur wissenschaftliche Publikationen, sondern auch konkrete technologische Artefakte, die sich in Produkte übersetzen lassen. Solche Gründungen profitieren von der Nähe zu Infrastruktur und Expertise, die einzelne Start-ups allein kaum aufbauen könnten.
Diese Nähe reduziert das Risiko früher Unternehmensphasen erheblich. Gründer können auf bestehende Labore, Messinfrastruktur und Betriebserfahrung zurückgreifen, während sie gleichzeitig durch MQV in ein größeres Netzwerk eingebettet sind. Das Valley fungiert damit als Inkubator im erweiterten Sinne, ohne die Dynamik klassischer Start-up-Strukturen zu ersticken.
Münchner Gründungsdynamik und Sichtbarkeit
Neben hardware-nahen Ausgründungen zeigt sich in München auch eine starke Dynamik im Bereich Software und Algorithmen. Ein prominentes Beispiel ist planqc, mit Alexander Glätzle als sichtbarem unternehmerischem Gesicht. Solche Unternehmen adressieren nicht primär den Bau von Quantenhardware, sondern die Nutzung vorhandener Systeme für konkrete Problemklassen, etwa in der Optimierung.
Diese Vielfalt ist ein strategischer Vorteil. Ein reines Hardware-Ökosystem würde wirtschaftlich zu langsam reifen, während reine Softwarelösungen ohne Zugang zu realer Infrastruktur Gefahr laufen, den Bezug zur physikalischen Realität zu verlieren. In der Kombination entsteht ein fruchtbares Spannungsfeld, in dem sich Produkte entlang realer Nutzerbedürfnisse entwickeln können. Sichtbarkeit spielt dabei eine zentrale Rolle. Erfolgreiche Gründungen wirken als Referenzpunkte, die das gesamte Valley international wahrnehmbar machen.
Talentpipeline als Fundament
Langfristig entscheidet die Talentpipeline über den Erfolg von Munich Quantum Valley. Quantencomputing ist ein interdisziplinäres Feld, das klassische Ausbildungsgrenzen überschreitet. Gefragt sind Profile, die Physik, Elektrotechnik und Informatik verbinden und zugleich ein Verständnis für Produktentwicklung und Betrieb mitbringen. Ein Quantenalgorithmus ist nur dann wertvoll, wenn er auf realer Hardware lauffähig ist und in einen Prozess integriert werden kann.
Graduiertentrainingsprogramme spielen hier eine Schlüsselrolle. Sie vermitteln nicht nur Fachwissen, sondern auch eine gemeinsame Sprache zwischen Disziplinen. Ergänzt wird dies durch praxisnahe Erfahrungen im Betrieb von Quantencomputern, etwa im Umfeld des QIC. Studierende und Nachwuchsforschende lernen so früh, dass Quantencomputing nicht nur aus idealisierten Modellen besteht, sondern aus Systemen mit Randbedingungen.
In dieser Verzahnung von Start-ups, Sichtbarkeit und Ausbildung liegt die wirtschaftliche Zündkraft des Valleys. Munich Quantum Valley wird sich daran messen lassen müssen, ob es nicht nur exzellente Forschung produziert, sondern nachhaltige Unternehmen und eine Generation von Fachkräften hervorbringt, die Quantentechnologie in die Breite tragen.
Einordnung in Deutschland & Europa
MQV im deutschen Quantenökosystem
Munich Quantum Valley ist nicht als isoliertes Prestigeprojekt konzipiert, sondern als bayerischer Knotenpunkt innerhalb der deutschen Quantenstrategie-Landschaft. Deutschland verfolgt im Bereich Quantentechnologie einen föderalen Ansatz, bei dem verschiedene Regionen unterschiedliche Schwerpunkte setzen. In diesem Gefüge übernimmt MQV die Rolle eines integrierten Infrastruktur- und Betriebszentrums, das Hardwareentwicklung, Software, Rechenzentrumsintegration und Ausbildung systematisch zusammenführt.
Die Schnittstellen zu nationalen Netzwerken sind dabei essenziell. MQV ergänzt andere Initiativen, die sich stärker auf Grundlagenforschung, einzelne Hardwareplattformen oder spezifische Anwendungsfelder konzentrieren. In der Zusammenarbeit mit überregionalen Verbünden entsteht eine arbeitsteilige Struktur, in der Kompetenzen gebündelt statt verdoppelt werden. Der Austausch mit der Quantum Alliance und verwandten Netzwerken sorgt dafür, dass Ergebnisse, Standards und Best Practices nicht regional begrenzt bleiben, sondern in nationale Strategien einfließen.
Diese Einbettung ist auch politisch relevant. Sie stärkt die Position Bayerns als aktiver Gestalter der deutschen Quantenagenda und schafft zugleich Anknüpfungspunkte für gemeinsame Förderformate und Infrastrukturentscheidungen. MQV fungiert damit als Referenzprojekt, an dem sich Fragen des Betriebs, der Zugänglichkeit und der Skalierung konkret diskutieren lassen.
Europäische Perspektive und Internationalisierung
Auf europäischer Ebene versteht sich Munich Quantum Valley als Baustein einer größeren Technologiearchitektur. Quantentechnologie ist ein Feld, in dem internationale Kooperation unverzichtbar ist, da Ressourcen, Talente und Märkte über nationale Grenzen hinaus verteilt sind. Gleichzeitig stehen europäische Akteure im globalen Wettbewerb mit stark investierenden Regionen in Nordamerika und Asien.
Internationalisierung ist für MQV daher kein optionales Ziel, sondern strategische Notwendigkeit. Kooperationsbesuche, gemeinsame Forschungsprojekte und der Austausch von Fachkräften dienen nicht nur dem Wissenstransfer, sondern auch der Positionierung des Standorts. Das Modell eines integrierten Valleys, das Quantencomputer nicht nur entwickelt, sondern betreibt und zugänglich macht, besitzt dabei Vorbildcharakter.
Dieses Standortmodell lässt sich als Exportgut verstehen. Nicht im Sinne einer Blaupause, die eins zu eins kopiert wird, sondern als Erfahrungswissen darüber, wie sich komplexe Quantensysteme in bestehende Forschungs- und Rechenzentrumslandschaften integrieren lassen. Europäische Partner können von diesen Erfahrungen profitieren, während MQV seinerseits von externen Impulsen lernt.
In dieser wechselseitigen Vernetzung liegt ein wesentlicher Hebel für europäische Souveränität. Munich Quantum Valley trägt dazu bei, dass Europa nicht nur einzelne exzellente Forschungsgruppen vorweisen kann, sondern belastbare Strukturen entwickelt, die Quantentechnologie langfristig tragen und international anschlussfähig machen.
Herausforderungen & Roadmap: Was entscheidet über Erfolg bis 2030?
Skalierung als systemische Herausforderung
Der Übergang vom heutigen 20-Qubit-Betrieb zu deutlich größeren Quantenprozessoren ist weniger eine Frage einzelner Durchbrüche als ein systemisches Skalierungsproblem. Mit wachsender Qubitanzahl steigen die Anforderungen an Fertigung, Packaging und Kontrolle nicht linear, sondern oft überproportional. Während wenige Qubits noch individuell charakterisiert und verdrahtet werden können, erfordern größere QPUs standardisierte Prozesse, hohe Ausbeuten und modulare Architekturen.
Ein zentraler Engpass liegt in der Control-Elektronik. Jeder Qubit benötigt präzise Steuersignale, deren Anzahl und Komplexität mit der Systemgröße zunimmt. Die Herausforderung besteht darin, diese Kontrolle effizient zu bündeln, etwa durch Multiplexing oder durch eine stärkere Integration der Elektronik näher an die Kryo-Ebene. Skalierung bedeutet daher nicht nur mehr Qubits, sondern ein neues Systemdesign, bei dem Hardware, Elektronik und Software von Anfang an gemeinsam gedacht werden.
Fehlertoleranz jenseits der Theorie
Fehlertoleranz gilt als entscheidende Voraussetzung für langfristig nützliche Quantencomputer. In der Theorie existieren ausgereifte Konzepte der Quantenfehlerkorrektur, die zeigen, dass zuverlässige Berechnung prinzipiell möglich ist. In der Praxis stellt sich jedoch die Frage nach dem Ressourcenaufwand. Fehlerkorrektur erfordert eine Vielzahl zusätzlicher physikalischer Qubits pro logischem Qubit. Der Overhead kann so groß werden, dass er die Vorteile der Technologie zunächst wieder relativiert.
Engineering rückt damit in den Vordergrund. Es reicht nicht aus, einen Fehlerkorrekturcode zu implementieren, sondern er muss stabil betrieben werden können. Kalibrierzyklen, Messfehler und zeitabhängige Drift beeinflussen die Wirksamkeit der Korrektur. Formal lässt sich der Aufwand grob als Verhältnis \(N_{\text{phys}} / N_{\text{log}}\) beschreiben, wobei dieses Verhältnis in der Praxis möglichst klein gehalten werden muss. Ob und wann Fehlertoleranz wirtschaftlich sinnvoll wird, ist eine offene Frage, die nur im Zusammenspiel von Hardware, Software und Betrieb beantwortet werden kann.
Reifegrad der Software
Parallel zur Hardware muss die Software deutlich reifer werden. Der Erfolg von MQV hängt davon ab, ob sich Schnittstellen, Toolchains und Abstraktionen etablieren lassen, die über einzelne Plattformen hinaus Bestand haben. Standardisierung ist dabei kein Selbstzweck, sondern Voraussetzung für Portabilität und Vergleichbarkeit. Ein Algorithmus, der heute auf einer bestimmten Hardware getestet wird, sollte morgen auf einer anderen Plattform mit überschaubarem Aufwand lauffähig sein.
Dies erfordert stabile APIs, klar definierte Metadatenformate und Compiler, die hardware-spezifische Optimierungen transparent handhaben. Ohne diese Reife droht Quantencomputing in eine Vielzahl inkompatibler Insellösungen zu zerfallen. MQV hat hier die Chance, durch den Betrieb heterogener Systeme einen De-facto-Standard aus der Praxis heraus zu prägen.
Betriebsökonomie als Entscheidungsfaktor
Ein oft unterschätzter Erfolgsfaktor ist die Betriebsökonomie. Quantencomputer sind teuer in Anschaffung und Betrieb. Kosten pro Experiment, Wartungsaufwand, Personalbedarf, Energieverbrauch und insbesondere die Kryo-Infrastruktur bestimmen, ob ein System langfristig tragfähig ist. Ein technologisch beeindruckender Quantenprozessor verliert an Attraktivität, wenn seine Betriebskosten in keinem Verhältnis zum erzielten Nutzen stehen.
Der Betrieb im Rechenzentrum schafft hier Transparenz. Durch systematische Erfassung von Kosten und Auslastung können realistische Modelle entwickelt werden, die Investitionsentscheidungen stützen. Diese ökonomische Perspektive ist entscheidend, um den Übergang von geförderter Forschung zu nachhaltiger Nutzung zu ermöglichen.
Adoption durch Killer-Workflows
Schließlich entscheidet die Adoption über den Erfolg. Die Suche nach der einen Killer-App greift zu kurz. Wahrscheinlicher ist, dass sich eine Reihe von Killer-Workflows etabliert, in denen Quantencomputer als spezialisierte Komponenten einen klaren Mehrwert liefern. Solche Workflows integrieren Quanten- und klassische Rechenprozesse nahtlos und sind eng an konkrete Nutzerbedürfnisse gekoppelt.
Bis 2030 wird sich zeigen, ob Munich Quantum Valley in der Lage ist, diese Workflows zu identifizieren, zu stabilisieren und in den Betrieb zu überführen. Gelingt dies, wird MQV nicht nur ein Forschungsprojekt bleiben, sondern zu einem tragenden Pfeiler der europäischen Quanteninfrastruktur reifen.
Schlusswort: MQV als Blaupause für „Quantum as Infrastructure“
Munich Quantum Valley steht exemplarisch für einen Perspektivwechsel in der Entwicklung von Quantencomputern. Der Fokus verlagert sich von der Demonstration isolierter Experimente hin zum verlässlichen Betrieb komplexer Systeme. Nicht die spektakuläre Einzelleistung entscheidet über den Erfolg, sondern die Fähigkeit, Quantenhardware dauerhaft, reproduzierbar und zugänglich in bestehende Infrastrukturen einzubetten. MQV zeigt, dass Quantencomputing den nächsten Reifeschritt nur dann erreicht, wenn es als Infrastruktur gedacht und behandelt wird.
Diese Verschiebung ist tiefgreifend. Sie zwingt dazu, Quantencomputer nicht länger als Laborgeräte zu betrachten, sondern als technische Systeme mit klaren Anforderungen an Verfügbarkeit, Wartbarkeit und Nutzerfreundlichkeit. Betrieb wird zur zentralen Kategorie. Erst im Dauerbetrieb offenbaren sich die wahren Stärken und Schwächen einer Technologie: Drift, Kalibrieraufwand, Schnittstellenprobleme und Kosten werden sichtbar und können systematisch adressiert werden. In diesem Sinne ist MQV weniger ein Hardwareprojekt als ein Lernprozess auf Systemebene.
Das entstehende Bild ähnelt der Entwicklung klassischer Hochleistungsrechner. Auch GPUs galten einst als exotische Spezialbeschleuniger, bevor sie sich als unverzichtbare Schicht im wissenschaftlichen Rechenzentrum etablierten. Quantencomputer folgen einem ähnlichen Pfad, allerdings unter deutlich anspruchsvolleren physikalischen Randbedingungen. Sie sind empfindlicher, fehleranfälliger und erfordern eine enge Verzahnung von Hardware, Software und Betrieb.
MQV liefert dafür eine Blaupause. Durch die Kombination aus mehreren Hardwarepfaden, einer integrierten Softwarearchitektur, realem Rechenzentrumsbetrieb und einer aktiven Talent- und Transferstrategie entsteht ein Modell, das über den Standort hinausweist. Wenn Quantencomputer in Zukunft selbstverständlich als Teil hybrider Rechenlandschaften genutzt werden, dann wird dieser Übergang nicht in einzelnen Laboren vollzogen worden sein, sondern in Infrastrukturen wie Munich Quantum Valley.
Mit freundlichen Grüßen
Anhang
Links von Instituten, Forschungszentren und Personen, die im Essay genannt wurden.
Zentrale Initiative
- Munich Quantum Valley (MQV) https://www.munich-quantum-valley.de
- Munich Quantum Valley e. V. (Trägerstruktur) https://www.munich-quantum-valley.de/...
Rechenzentrum & Integration
- Leibniz-Rechenzentrum (LRZ) – Quantum Computing & QIC https://www.lrz.de/...
- Quantum Integration Centre (QIC) am LRZ https://www.lrz.de/...
- Munich Quantum Portal (MQP) https://portal.quantum.lrz.de
Universitäten & Grundlagenforschung
- Technische Universität München (TUM) https://www.tum.de
- Ludwig-Maximilians-Universität München (LMU) https://www.lmu.de
- Friedrich-Alexander-Universität Erlangen–Nürnberg (FAU) https://www.fau.de
- Bayerische Akademie der Wissenschaften (BAdW) https://www.badw.de
- Max-Planck-Gesellschaft https://www.mpg.de
- Max-Planck-Institut für Quantenoptik (MPQ) https://www.mpq.mpg.de
- Walther-Meißner-Institut für Tieftemperaturforschung https://www.wmi.badw.de
Anwendungsnahe Forschung & Industrie
- Fraunhofer-Gesellschaft https://www.fraunhofer.de
- Fraunhofer EMFT – Supraleitende Quantenhardware https://www.emft.fraunhofer.de
- Fraunhofer IKS – Safety & Robustheit https://www.iks.fraunhofer.de
- Deutsches Zentrum für Luft- und Raumfahrt (DLR) https://www.dlr.de
Hardware-Partner & Technologiepfade
- IQM Quantum Computers https://www.meetiqm.com
- Alpine Quantum Technologies (AQT) https://www.aqt.eu
Software & Ökosystem
- Munich Quantum Software Stack (MQSS) https://www.munich-quantum-valley.de/...
- Quantum Device Management Interface (QDMI) https://munich-quantum-software-stack.github.io/...
Start-ups & Entrepreneurship
- Peak Quantum https://www.peakquantum.com
- planqc https://www.planqc.eu
Personen (Auswahl)
- Prof. Dr. Rudolf Gross https://www.wmi.badw.de/..
- Prof. Dr. Rainer Blatt https://quantumoptics.at/...
- Prof. Dr. Peter Zoller https://www.uibk.ac.at/...
- Dr. Thomas Monz https://www.aqt.eu/...
- Leon Koch https://www.munich-quantum-valley.de/...
- Dr. Alexander Glätzle https://www.planqc.eu/...