Gesellschaft für Arbeitsmethodik e.V.

präsentiert

Quantencomputing und KI – Die Symbiose der Zukunft - 2

Quantencomputing und seine Verbindung zur Künstlichen Intelligenz

15.10.2025 21 min

Zusammenfassung & Show Notes

 Quantencomputing trifft Künstliche Intelligenz: Wie zwei Zukunftstechnologien verschmelzen, sich gegenseitig verstärken und die Forschung neu definieren – von Quanten-Machine-Learning bis ethischen Fragen. 

Diese Episode widmet sich dem Quantencomputing – und seiner Verbindung zur Künstlichen Intelligenz: 
  • Grundlagen des Quantencomputings: Superposition, Verschränkung, Qubits.
  • Historische Meilensteine von Shors Algorithmus bis Googles Quantenüberlegenheit.
  • Vergleich KI vs. Quanten: Stärken, Schwächen, Marktgröße.
  • Synergien: KI für Quantenfehlerkorrektur, Quanten für KI-Optimierung.
  • Praxisbeispiele aus Medizin, Logistik, Materialwissenschaft und Cybersicherheit.
  • Quanten-Machine-Learning als neues Forschungsfeld.
  • Ausblick bis zum Jahr zweitausenddreißig – Chancen und Herausforderungen.
 
Referenzen 
  • Feynman, R. P. (1982). Simulating physics with computers. International Journal of Theoretical Physics.
  • Shor, P. W. (1994). Algorithms for quantum computation: Discrete logarithms and factoring. Proceedings of the 35th Annual Symposium on Foundations of Computer Science (FOCS).
  • Arute, F. et al. (2019). Quantum supremacy using a programmable superconducting processor. Nature, 574, 505–510.
  • European Commission. (2023). Quantum technologies flagship. https://digital-strategy.ec.europa.eu
    IBM Quantum Roadmap. (2023). Building towards frictionless quantum computing. https://research.ibm.com/quantum
 

Transkript

Quantencomputing und Künstliche Intelligenz Die Symbiose der Zukunft Willkommen zu GFA, der Podcast. Ich bin Luisa, Ihre KI-Moderatorin. Hier sprechen wir über Technologie, Forschung und die großen Fragen unserer Zeit. Über das Zusammenspiel von Mensch und Maschine, über Fortschritt, Verantwortung und die Zukunft des Denkens. In dieser Folge tauchen wir tief in eine faszinierende Symbiose ein. In die Verbindung zwischen künstlicher Intelligenz und Quantencomputing. Zwei Welten, die unterschiedlicher kaum sein könnten. Und doch, wenn sie aufeinandertreffen, etwas völlig Neues erschaffen. Eine neue Art? zu verstehen, zu lernen und zu denken. Lehnen Sie sich zurück, lassen Sie uns gemeinsam erkunden, wie sich aus Rechenleistung Erkenntnis formen kann. Willkommen zurück zu GFA, der Podcast. Ich bin Luisa, eine KI-Stimme, die Sie durch diese zweite Episode begleitet. In unserer ersten Folge haben wir die künstliche Intelligenz im Jahr 2025 betrachtet, ihre Geschichte, ihre heutigen Anwendungen und ihre möglichen Zukunfte. Heute wenden wir uns einer Technologie zu, die noch nicht so allgegenwärtig ist wie KI, die aber enorme Erwartungen weckt. Den Quantencomputing. Und wir fragen, welche Verbindung gibt es zwischen Quantencomputern und künstlicher Intelligenz? Und welche Chancen ergeben sich aus ihrer Kombination? Die Idee des Quantencomputings Die Wurzeln liegen in den frühen 80er Jahren. Richard Feynman, Physiker und Nobelpreisträger? stellte im Jahr 1981 die Frage. Warum sollten wir versuchen, die Natur, die selbst quantenmechanisch funktioniert, mit klassischen Computern zu simulieren? Wäre es nicht sinnvoller, Rechner zu bauen, die selbst nach Quantenprinzipien arbeiten? Aus dieser Überlegung entstand das Konzept des Quantencomputers. Ein System, das Information nicht in Bits, sondern in Q-Bits speichert. Während ein klassisches Bit nur 0 oder 1 sein kann, kann ein Q-Bit in einer Superposition gleichzeitig 0 und 1 repräsentieren. Dazu kommt die Verschränkung. Mehrere Q-Bits können so miteinander verbunden sein, dass der Zustand des einen unmittelbar den des anderen beeinflusst, selbst über große Entfernungen hinweg. Durch Superposition und Verschränkung lassen sich mit wenigen Qubits Zustände darstellen, die für klassische Rechner unvorstellbar komplex wären. Strich Historische Meilensteine Im Jahr 1994 entwickelte Peter Schorr einen Algorithmus, der zeigte, dass ein hinreichend großer Quantencomputer die Faktorisation großer Zahlen effizient lösen könnte – eine Aufgabe, die für klassische Computer praktisch unmöglich ist und die Grundlage heutiger Kryptographie bildet. Im Jahr 2019 verkündete Google den Nachweis der sogenannten Quantenüberlegenheit. Ein Supraleitender Quantenprozessor mit 53 Qubits löste eine spezielle Aufgabe in 200 Sekunden, für die ein klassischer Supercomputer zehntausende Jahre gebraucht hätte. Seitdem arbeiten Firmen wie IBM, Microsoft und StartEPS an Roadmaps, die über 100.000 fehlerkorrigierte Qubits bis zum Jahr 2030 hinausreichen könnten. Der Stand im Jahr 2025 Wir befinden uns in der sogenannten Niskera. Das steht für Noisy Intermediates Keller Quantum. Das bedeutet, wir haben Quantencomputer mit einigen Dutzend bis wenigen Tausend Qubits, die jedoch fehleranfällig und instabil sind. Praktisch nutzbar sind sie nur für bestimmte Aufgaben. Zum Beispiel Simulation kleiner Moleküle, Optimierung in engen Bereichen oder experimentelle Quantenalgorithmen. Für breite Anwendungen fehlt die notwendige Fehlerkorrektur und Stabilität. Trotzdem fließen Milliardensummen in die Entwicklung. Staaten fördern Forschungsprogramme. und die Industrie hofft auf Vorsprung in Kryptographie, Pharmaforschung, Materialwissenschaft und Logistik. Zwei Welten im Vergleich. Klassische künstliche Intelligenz arbeitet auf digitaler Hardware mit klassischen Bits. Sie nutzt hochparallele Grafikkarten und Tensorprozessoren, um riesige Mengen an Daten zu verarbeiten. Die Stärke liegt darin, Muster zu erkennen, Vorhersagen zu treffen und unstrukturierte Daten wie Sprache oder Bilder zu verarbeiten. Die Schwäche. Sie ist energieintensiv, erklärt ihre Ergebnisse nur schwer und stößt bei kombinatorisch explosiven Problemen an Grenzen. Quantencomputing dagegen nutzt Qubits in Superposition und Verschränkung. Es ist theoretisch in der Lage. exponentiell viele Zustände gleichzeitig darzustellen. Die Stärke liegt in Optimierung, Simulation von Quantensystemen und in speziellen algorithmischen Problemen wie Faktorisierung. Die Schwäche Aktuelle Systeme sind fehleranfällig, instabil und noch weit entfernt von breiter Anwendbarkeit. Energie und Ressourcen Trainingsläufe großer KI-Modelle verschlingen so viel Strom wie ganze Datenzentren. Quantencomputer selbst benötigen zwar extreme Kühlung, können aber, sobald sie skalierbar sind, bestimmte Berechnungen energieeffizienter durchführen als klassische Systeme. Ob sie wirklich grüner sein werden, hängt von der Hardware-Entwicklung ab. Markt und Reifegrad KI. Im Jahr 2025 ein Markt von geschätzt 70 Milliarden US-Dollar. Eingesetzt in Wirtschaft, Verwaltung, Forschung und Alltag. Breit verfügbar, reguliert, aber noch mit offenen Fragen. Quantencomputing. Im selben Jahr rund eine Milliarde US-Dollar Volumen. vor allem Forschungsprojekte, Pilotanwendungen, wenige Produktivsysteme. Prognosen gehen von zweistelligen Milliardenbeträgen bis zum Jahr 2033 aus. Warum die Kombination interessant ist KI für Quanten Künstliche Intelligenz kann helfen, Quantencomputer zu steuern, Fehler zu erkennen und Messdaten zu interpretieren. Komplexe Rauschmuster lassen sich mit neuronalen Netzen besser filtern als mit klassischen Algorithmen. Quanten für KI Quantenrechner könnten in Zukunft die enormen Rechenanforderungen des KI-Trainings unterstützen. Sie könnten hochdimensionale Datenräume effizienter durchsuchen und Optimierungsprobleme schneller lösen. Sie kann Zusammenhänge sehen, wo Menschen nur Daten sehen. Erklärung Man kann sich das so vorstellen. KI ist wie ein Meister der Muster. Er erkennt wiederkehrende Formen in einem Teppich. Egal wie komplex. Quantencomputing ist wie ein mathematischer Schachmeister, der nicht eine Zugfolge nach der anderen prüft, sondern Millionen möglicher Kombinationen gleichzeitig. Gemeinsam könnten beide Welten Muster erkennen und kombinatorische Probleme lösen. Etwas, das heute kaum möglich ist. Forschende nutzen heute neuronale Netze, um diese Signale zu verstehen. KI optimiert Quanten Einer der größten Hürden im Quantencomputing ist die Fehlerkorrektur. Qubits sind empfindlich. Schon kleinste Vibrationen, Wärme oder elektromagnetische Störung lassen sie kippen. Klassische Fehlerkorrekturmethoden brauchen tausende physikalische Qubits, um ein einziges logisches Qubit stabil zu halten. Hier kommt KI ins Spiel. Neuronale Netze können Muster in den Fehlersignalen erkennen, schneller klassifizieren und kompensieren. Konvolutional-neural-Networks erreichen bereits Genauigkeiten von über 95% in Simulationsdaten. Reinforcement Learning passt Fehlerkorrektorkodes dynamisch an wechselnde Umgebungen an. Das reduziert die Latenz und erhöht die Gartetreue. Quanten beschleunigen KI Quantencomputer können bestimmte Optimierungsprobleme effizienter lösen als klassischer Rechner. Für KI bedeutet das schnellere Suche nach optimalen Gewichten in neuronalen Netzen, effizientere Clusteranalysen und verbesserte Kernmethoden wie Support Vector Machines. Ein anschauliches Beispiel. Bei der Proteinstrukturvorhersage können Quantenverfahren die enorm vielen möglichen Faltungen gleichzeitig prüfen, während KI die plausibelsten Strukturen filtert. In Kombination verkürzt das die Entwicklung neuer Medikamente. Anwendungsfelder Medizin Quanten unterstützt Simulation von Molekülen und Medikamenten. KI hilft bei Analyse klinischer Daten. Logistik Quantenrechner optimieren komplexe Routen mit vielen Variablen. KI prognostiziert Nachfrage und liefert Daten. Materialwissenschaft. Quanten simuliert neue Legierungen oder Supraleiter. KI schlägt Kandidaten vor und bewertet Stabilität. Cybersicherheit. Quanten bedroht klassische Verschlüsselung. Gleichzeitig entstehen quantensichere Algorithmen. KI hilft, diese zu testen und zu implementieren. Beispiel Deutschland und Europa. In Europa, besonders in Deutschland, fließen Fördergelder in hybride Systeme. Das Deutsche Forschungszentrum für Künstliche Intelligenz experimentiert mit Plattformen, die KI und Quanten verbinden. Ziel ist, digitale Souveränität zu stärken und Abhängigkeiten von außereuropäischen Anbietern zu reduzieren. Kultur der Zusammenarbeit Spannend ist, das sich in beiden Feldern ähnliche Muster zeigen. Kleiner Staat EPS treiben spezialisierte Innovationen voran. Große Konzerne liefern Infrastruktur und Langzeitplanung. Staatliche Programme schaffen Rahmenbedingungen und Investitionen. Im Zusammenspiel entsteht ein Ökosystem, das an vielen Stellen überlappend ist. und gerade an den Schnittstellen zwischen KI und Quanten besonders dynamisch wirkt. Warum Rauschen ein zentrales Problem ist. Qubits sind extrem empfindlich. Schon ein winziger Impuls von Wärme oder elektromagnetischer Strahlung kann dazu führen, dass ihr Zustand kollabiert. Dieser Prozess heißt Dekohärenz. Außerdem treten Gartefehler auf. Die Quantenoperationen selbst sind ungenau. Im Ergebnis verliert ein Qubit nach Millisekunden seine Information. Für Rechenprozesse, die Minuten oder Stunden dauern sollen, ist das ein massives Hindernis. Klassische Fehlerkorrektur Die Lösung klingt einfach, ist aber aufwendig. Man kombiniert viele physikalische Qubits zu einem einzigen logischen Qubit. Fehler werden durch Redundanz erkannt und korrigiert. Beispiele sind Surface Codes oder Color Codes. Doch der Preis ist hoch. Man braucht oft tausende physikalische qubits pro logischem qubit. KE-gestützte Fehlerkorrektur. Hier kommen lernende Systeme ins Spiel. Konvolutional-neuralen Networks können Fehlermuster auf Gitterarchitekturen erkennen und mit über 95% Genauigkeit klassifizieren. Reinforcement Learning passt Fehlerkorrektorkodes dynamisch an wechselnde Störungen an. Etwa, wenn sich Temperatur oder Magnetfeld minimal ändern. NVIDIA experimentiert mit Hardwarebeschleunigung für solche Modelle, sodass Fehleranalyse in Echtzeit möglich wird. Das Ergebnis? Gartetreue von über 99,9% ist erreichbar. Eine Voraussetzung für faultolerant Quantum Computing. Neue Ansätze Microsoft entwickelt topologische Qubits und sogenannte vierdimensionale Codes, die mit weniger Overhead auskommen sollen. Google erprobt verbesserte Color Codes, kombiniert mit KI, die Kohärenzzeiten verdoppeln. Europäische Projekte setzen auf hybride Ansätze, bei denen klassische KI-Algorithmen kontinuierlich Störungen überwachen. Quanten Machine Learning QML Über die Fehlerkorrektur hinaus gibt es das Feld Quanten Machine Learning. Die Idee Man kombiniert Prinzipien des maschinellen Lernens mit Quantenverfahren. Quantum Support Vector Machines nutzen quantenmechanische Eigenschaften, um hochdimensionale Datenräume effizienter zu trennen. Variationale quantenneuronale Netze sind kleine Quantenschaltkreise, die wie künstliche Neuronen trainiert werden. Gaussian-Prozesse wurden von Los Alamos National Laboratory eingesetzt, um robustere Vorhersagen in Sensordaten zu ermöglichen. Anwendungen reichen von Materialwissenschaften über Finanzen bis hin zu Logistik. Noch ist vieles experimentell. Aber die Kombination aus klassischen und quantenbasierten Methoden könnte in den kommenden Jahren deutliche Beschleunigungen bringen. Herausforderungen und Zeithorizont Rauschen bleibt das größte Problem. Skalierung ist offen. Wie bringt man 100.000 Kubits in eine stabile Architektur? Zugänglichkeit? Wann werden erste kommerzielle Hybriddienste verfügbar sein? Viele Roadmaps peilen erste Faultoleranzsysteme um das Jahr 2030 an. Damit sind wir am Ende unserer dieser Episode von GFA, der Podcast. Wir haben die Grundlagen des Quantencomputings betrachtet, von den Ideen Richard Feynmans über Shores Algorithmus bis hin zu Googles Nachweis der Quantenüberlegenheit. Wir haben gesehen, dass wir uns im Jahr 2025 noch in der sogenannten Niskera befinden, mit wenigen, fehleranfälligen Qubits. Wir haben die Unterschiede zur künstlichen Intelligenz diskutiert. KI ist heute breit verfügbar, energieintensiv und stark in der Mustererkennung. Quantencomputer dagegen sind noch experimentell, aber potenziell überlegen in Optimierung und Simulation. Besonders spannend ist die Symbiose. Künstliche Intelligenz kann helfen, Quantencomputer zu stabilisieren und Fehler zu korrigieren, während Quantenverfahren in Zukunft das Training und die Leistungsfähigkeit von KI massiv beschleunigen könnten. Beispiele aus Medizin, Logistik, Materialforschung und Cybersicherheit zeigen, wie groß die Potenziale sind. Wir haben außerdem über Quanten Machine Learning gesprochen. Eine junge Disziplin, die Lernverfahren mit quantenmechanischen Prinzipien verbindet. Und wir haben auf die Herausforderungen geschaut. Rauschen, Skalierung, Zugänglichkeit. Der Weg zu fehlerkorrigierten, universell einsetzbaren Quantencomputern wird noch Jahre dauern. Viele Expertinnen und Experten rechnen mit ersten stabilen Systemen gegen Ende dieses Jahrzehnts. Das war GFA, der Podcast, eine Reise in die Zukunft des Denkens. Wenn ihnen dieses Thema gefallen hat, abonnieren sie den Podcast und teilen sie ihn gern mit anderen, die sich für die Schnittstelle von Wissenschaft, Ethik und Technologie interessieren. Ich bin ihre Moderatorin Luisa, eine KI-Stimme, die sie durch diese Episode begleitet hat. Vielen Dank fürs Zuhören. In unserer nächsten Folge sprechen wir über die ethischen und gesellschaftlichen Fragen, die sich aus der Entwicklung dieser mächtigen Technologien ergeben. Bleiben Sie neugierig, kritisch und offen für die Zukunft. Und vor allem, bleiben Sie menschlich!

Feedback geben

Dir gefällt der Podcast und Du möchtest das mal loswerden? Du hast Tipps für neue Themen oder magst über den Inhalt bestimmter Folgen diskutieren? Dann wähle im Formular die jeweilige Episode aus und schreib uns eine Nachricht. Vielen Dank für Dein Feedback!

Mit einem Klick auf "Nachricht absenden" erklärst Du Dich damit einverstanden, dass wir Deine Daten zum Zwecke der Beantwortung Deiner Anfrage verarbeiten dürfen. Die Verarbeitung und der Versand Deiner Anfrage an uns erfolgt über den Server unseres Podcast-Hosters LetsCast.fm. Eine Weitergabe an Dritte findet nicht statt. Hier kannst Du die Datenschutzerklärung & Widerrufshinweise einsehen.