Kryentech Logo Elektrotechnik Bericht

Quantencomputer Sicherheit: Post-Quantum Cryptography für Entwickler

Technischer Leitfaden für Post-Quantum Cryptography und pragmatische PQC Migration in realen Systemen

Visualisierung zur Bedrohung klassischer Kryptografie durch Quantencomputer
Quantencomputer verändern die Sicherheitsannahmen klassischer Kryptografie und treiben die PQC-Migration.

Was du in diesem Artikel lernst

Du verstehst, warum Quantencomputer Sicherheit heute ein Architekturthema ist und nicht nur ein Forschungsthema.

Du lernst die relevanten Grundlagen zu Qubits, Shor, Grover und den Konsequenzen für RSA, ECC, AES und Hash-Verfahren.

Du bekommst einen praxisnahen Überblick über Post-Quantum Cryptography, inklusive Algorithmuswahl und Trade-offs.

Du erhältst eine konkrete PQC Migration-Leitlinie mit Checkliste, Codebeispielen und Integrationspunkten.

Inhaltsverzeichnis

Warum Entwickler jetzt handeln müssen

Klassische Public-Key-Verfahren wie RSA und ECC können durch Quantenalgorithmen langfristig gebrochen werden. Wer heute nur klassisch verschlüsselt, riskiert, dass sensible Daten später entschlüsselt werden. Genau darum geht es bei Quantencomputer Sicherheit.

Wichtig: Angreifer können Daten heute abfangen und später entschlüsseln (harvest now, decrypt later).

Für Daten mit langer Schutzdauer (z. B. 10+ Jahre) ist frühe PQC Migration entscheidend.

Hinweis: Dieser Artikel bleibt technisch, aber bewusst praxisnah für Entwicklerteams in App-, Backend- und Infrastrukturprojekten.

Grundlagen: Was macht Quantencomputer gefährlich?

Ein Quantencomputer ist kein klassischer Prozessor mit schnelleren Transistoren, sondern ein physikalisches Rechensystem. Er nutzt gezielt quantenmechanische Zustände von Teilchen (z. B. Elektronenspin, supraleitende Schaltkreise oder Photonen), um Information zu verarbeiten.

Qubit: kleinste Informationseinheit; kann als Überlagerung von 0 und 1 vorliegen.

Quantengates: kontrollierte Operationen (z. B. mit Mikrowellenimpulsen/Lasern), die Qubit-Zustände gezielt verändern.

Messung: erst beim Messen kollabiert der Zustand zu einem konkreten Ergebnis (0 oder 1).

Verschränkung: mehrere Qubits bilden gemeinsame Zustände, die sich nicht mehr unabhängig beschreiben lassen.

Rechnen auf Quantenhardware bedeutet also: Zustand präparieren, mit einer Gate-Sequenz transformieren, dann messen. Viele Algorithmen werden mehrfach ausgeführt, um aus probabilistischen Messungen ein belastbares Resultat zu gewinnen.

Praktisch zentral ist die Dekohärenz: Qubits verlieren durch Störungen schnell ihre Information. Deshalb sind Fehlerkorrektur, tiefe Temperaturen und sehr präzise Kontrolle nötig. Genau diese technische Hürde ist der Hauptgrund, warum leistungsfähige Quantenangriffe noch nicht breit verfügbar sind.

Quantencomputer nutzen quantenmechanische Zustände direkt als Rechenressource. Ein Qubit kann in Superposition mehrere Zustände gleichzeitig repräsentieren, und Qubits können durch Verschränkung gekoppelt sein.

Shor löst Faktorisierung und diskrete Logarithmen effizienter als klassische Verfahren. Damit geraten RSA, DH/ECDH und ECDSA unter Druck. Grover beschleunigt brute-force Suche, wodurch sich die effektive Sicherheit symmetrischer Schlüssel reduziert.

Kurzdefinitionen:

RSA/ECC: asymmetrische Kryptografie für Schlüsselaustausch und Signaturen.

AES: symmetrische Verschlüsselung, bleibt mit ausreichender Schlüssellänge robust.

Faustregel: Für lange Schutzdauer heute auf AES-256 und moderne Hashes setzen.

Warum der Shor-Algorithmus so gefährlich ist

Die Sicherheit von RSA basiert darauf, dass die Zerlegung einer grossen Zahl N = p · q in ihre Primfaktoren p und q mit klassischen Computern extrem aufwändig ist. Für genügend grosse Schlüssellängen ist das in der Praxis nicht realistisch durchführbar.

Der Shor-Algorithmus greift dieses Problem nicht einfach mit mehr Rechenleistung an, sondern mit einer anderen mathematischen Strategie. Er reduziert die Faktorisierung auf ein Periodenfindungsproblem. Statt direkt die Faktoren von N zu suchen, betrachtet man eine Funktion der Form:

f(x) = a^x mod N

Dabei ist a eine zufällig gewählte Zahl, die zu N teilerfremd ist. Diese Funktion ist periodisch. Das bedeutet: Es gibt ein kleinstes r, sodass wieder derselbe Zustand erreicht wird:

a^r ≡ 1 mod N

Dieses r ist die gesuchte Periode. Genau hier liegt der Kern des Algorithmus: Wenn diese Periode bekannt ist, lassen sich mit hoher Wahrscheinlichkeit die Faktoren von N berechnen.

Wichtig: Der Shor-Algorithmus faktorisiert grosse Zahlen nicht direkt.

Er bestimmt zuerst eine Periode und leitet daraus die Primfaktoren ab.

Wie aus der Periode die Faktoren entstehen

Wenn die gefundene Periode r gerade ist und zusätzlich gilt, dass a^(r/2) nicht trivial ist, können Kandidaten für die Faktoren über den grössten gemeinsamen Teiler berechnet werden:

gcd(a^(r/2) - 1, N)
gcd(a^(r/2) + 1, N)

Ergeben diese Ausdrücke nichttriviale Teiler von N, ist die Faktorisierung gelungen. Genau dieser Schritt ist mathematisch elegant: Aus der Struktur der modularen Exponentialfunktion wird direkt Information über die Primfaktoren gewonnen.

Warum das klassisch schwer ist

Klassische Faktorisierungsverfahren wie das Number Field Sieve wachsen mit der Schlüssellänge sehr ungünstig. Für RSA-2048 führt das zu einem praktisch unbeherrschbaren Aufwand. Das Problem ist nicht, dass ein einzelner Schritt kompliziert wäre, sondern dass der gesamte Suchraum enorm ist.

Auch das Finden der Periode ist auf klassischen Rechnern nicht effizient lösbar. Genau hier setzt die Quantenmechanik an: Ein Quantencomputer kann viele Zustände gleichzeitig in einer Superposition verarbeiten und die Periodizität mit einer Quanten-Fourier-Transformation (QFT) sichtbar machen.

Vereinfachter Ablauf des Shor-Algorithmus

  1. Eine Zahl a wählen, die teilerfremd zu N ist.
  2. Die Funktion f(x) = a^x mod N auf vielen Zuständen gleichzeitig auswerten.
  3. Die Periodeninformation mit einer Quanten-Fourier-Transformation extrahieren.
  4. Aus dem Messergebnis die Periode r rekonstruieren.
  5. Mit r nichttriviale Faktoren von N berechnen.

Quanten-Fourier-Transformation (QFT): quantenmechanische Variante der Fourier-Transformation, mit der periodische Strukturen in einem Quantenzustand effizient erkennbar werden.

Warum das für RSA und ECC kritisch ist

RSA basiert auf Faktorisierung. ECC und klassische Diffie-Hellman-Verfahren basieren auf dem diskreten Logarithmusproblem. Der Shor-Algorithmus kann beide Problemklassen effizient angreifen. Das macht ihn so gefährlich: Er beschleunigt klassische Angriffe nicht nur ein wenig, sondern ändert die mathematische Schwierigkeitsklasse des Problems.

Für Entwickler bedeutet das: Die Sicherheit von RSA, ECDSA, ECDH und ähnlichen Verfahren ist nicht langfristig stabil, sobald ausreichend grosse fehlerkorrigierte Quantencomputer verfügbar werden.

Kernaussage: Der Shor-Algorithmus macht aus einem heute praktisch unlösbaren Problem ein prinzipiell effizient lösbares Problem.

Genau deshalb ist Post-Quantum Cryptography für Public-Key-Systeme notwendig.

Zeithorizont realistisch einordnen

Es gibt keinen exakten Termin für praktisch einsetzbare Quantenangriffe auf grosse Produktivsysteme. Realistisch ist ein Unsicherheitsfenster von etwa 10 bis 20 Jahren für breite Relevanz, mit früheren Teilrisiken in speziellen Szenarien.

  • Technischer Fortschritt ist schnell, aber hardwareseitig weiterhin schwierig.
  • Normen und Migrationspfade sind bereits definiert (NIST, CNSA).
  • Die Vorlaufzeit für sichere Migration ist meist länger als ein einzelner Release-Zyklus.

Post-Quantum Cryptography: Standards und Auswahl

Post-Quantum Cryptography (PQC) bezeichnet Algorithmen, die auf klassischen Rechnern laufen und nach heutigem Stand gegen bekannte Quantenangriffe resistent sind. Für Teams bedeutet das: jetzt Architektur und Protokolle auf Austauschbarkeit vorbereiten.

Algorithmus Typ Zweck Grössenordnung Empfehlung
ML-KEM (Kyber)KEMSchlüsselaustauschKeys/Ciphertext meist ~1-2 kBPrimärer Kandidat für Hybrid-TLS
ML-DSA (Dilithium)SignaturCode-Signing, ZertifikateSignaturen meist grösser als ECDSABreit einplanen, früh testen
FalconSignaturPerformance-sensitive SignaturenKompakter, aber komplexerGezielt evaluieren
SPHINCS+Hash-SignaturHochrobuste SignaturszenarienSehr grosse Signaturen/KeysFür Spezialfälle einplanen
HQCKEMAlternative/BackupMittlere GrössenordnungAls Reserve im Portfolio führen

Werte sind absichtlich grob gehalten; konkrete Parameter hängen von Sicherheitsstufe und Implementierung ab.

Was bedeutet das für klassische Verfahren?

Für klassische Public-Key-Verfahren ist der Unterschied dramatisch: Ein ausreichend leistungsfähiger Quantencomputer könnte RSA-2048 oder ECC nicht nur etwas schneller, sondern grundlegend effizienter angreifen. NIST beschreibt das sehr anschaulich: Was für klassische Computer Milliarden Jahre dauern würde, könnte für einen kryptografisch relevanten Quantencomputer auf Stunden oder Tage schrumpfen.

Bei symmetrischer Kryptografie ist die Lage besser: AES wird durch bekannte Quantenalgorithmen nicht direkt gebrochen, aber Grovers Algorithmus reduziert die effektive Sicherheit ungefähr auf die Quadratwurzel des ursprünglichen Suchraums. Vereinfacht bedeutet das: AES-256 verhält sich unter Quantenangriffen eher wie ca. 128 Bit Sicherheit - und gilt damit weiterhin als sehr stark, während AES-128 deutlich weniger Reserve bietet. Deshalb empfehlen NIST und NSA für langfristigen Schutz den Einsatz von PQC für Public Key, kombiniert mit AES-256 sowie SHA-384 oder SHA-512 für zusätzliche Sicherheitsreserve.

RSA / ECC: nicht zukunftssicher gegen Quantenangriffe.

AES: weiter nutzbar, aber für langfristige Sicherheit auf AES-256 setzen.

Hash: SHA-256 ist praktikabel, SHA-384/512 bietet mehr Reserve.

Forward Secrecy: weiterhin zwingend, um alte Sessions besser zu schützen.

Komplexitätsvergleich: klassisch vs. Quanten

Der entscheidende Unterschied zwischen klassischen und quantenbasierten Angriffen liegt nicht nur in der Geschwindigkeit, sondern in der Komplexitätsklasse des zugrunde liegenden Problems.

Ein Algorithmus gilt als praktisch sicher, wenn der Rechenaufwand mit steigender Schlüssellänge sehr schnell wächst – typischerweise exponentiell oder sub-exponentiell. Genau darauf basiert die Sicherheit heutiger Kryptografie.

RSA-Faktorisierung im Vergleich

Für RSA basiert die Sicherheit auf der Schwierigkeit, eine grosse Zahl N = p · q zu faktorisieren.

Klassisch (Number Field Sieve):

Sub-exponentielle Komplexität:

L_N[1/3, (64/9)^(1/3)] ≈ exp((ln N)^(1/3) · (ln ln N)^(2/3))

Kurz erklärt: Diese Formel beschreibt ein sehr schnelles Wachstum des Aufwands beim klassischen Faktorisieren. Schon eine etwas längere RSA-Schlüssellänge erhöht die benötigte Rechenzeit massiv.

Bedeutung: `N` ist die zu faktorisierende Zahl. `L_N[...]` ist die übliche Kurzschreibweise für den Aufwand des Number-Field-Sieve-Verfahrens.

Das Wachstum ist extrem schnell. Schon kleine Erhöhungen der Schlüssellänge führen zu massiv höherem Rechenaufwand.

Quanten (Shor-Algorithmus):

Polynomielle Komplexität:

O((ln N)^3)

Kurz erklärt: Hier wächst der Aufwand nur polynomiell mit der Problemgrösse. Genau deshalb kann Shor RSA/ECC prinzipiell viel effizienter angreifen als klassische Verfahren.

Bedeutung von `O(...)`: Das ist die Big-O-Notation. Sie beschreibt, wie stark der Aufwand asymptotisch wächst, und ignoriert konstante Faktoren (z. B. ob es 2· oder 10· mehr Rechenschritte sind).

Das ist der entscheidende Unterschied:

  • Klassisch: Aufwand wächst extrem schnell → praktisch unlösbar
  • Quanten: Aufwand wächst moderat → praktisch lösbar

Kernaussage:

Der Übergang von sub-exponentiell zu polynomiell macht den Angriff von „unmöglich“ zu „realistisch“.

Symmetrische Kryptografie (AES) im Vergleich

Symmetrische Verfahren wie AES werden nicht durch Shor, sondern durch Grovers Algorithmus beeinflusst.

  • Klassisch: Aufwand = 2n
  • Quanten (Grover): Aufwand ≈ 2n/2

Das bedeutet:

  • AES-128 → effektiv ~64 Bit Sicherheit (kritisch)
  • AES-256 → effektiv ~128 Bit Sicherheit (weiterhin stark)

Interpretation:

Grover halbiert die effektive Sicherheit, zerstört sie aber nicht vollständig.

Hash-Funktionen

Auch Hash-Funktionen sind betroffen, allerdings weniger kritisch:

  • Preimage-Angriff: von 2n → 2n/2
  • Kollisionsangriff bleibt bei ~2n/2

Daher gelten:

  • SHA-256 → reduziert, aber noch brauchbar
  • SHA-384 / SHA-512 → empfohlen für langfristige Sicherheit

Warum dieser Unterschied so entscheidend ist

Die Sicherheit moderner Kryptografie basiert auf der Annahme, dass bestimmte Probleme nicht effizient lösbar sind.

Quantencomputer ändern genau diese Annahme:

  • Faktorisierung → effizient lösbar
  • Diskreter Logarithmus → effizient lösbar

Damit fallen die mathematischen Grundlagen vieler bestehender Systeme weg.

Fazit:

Der Unterschied liegt nicht in „schneller Hardware“, sondern in einer fundamental anderen algorithmischen Effizienz.

Warum gitterbasierte Kryptografie als quantensicher gilt

Moderne Post-Quantum-Verfahren wie Kyber (ML-KEM) und Dilithium (ML-DSA) basieren nicht auf Faktorisierung oder diskreten Logarithmen, sondern auf Problemen aus der linearen Algebra – genauer: auf Gittern (Lattices).

Ein Gitter kann man sich vereinfacht als ein regelmässiges Punkteraster im mehrdimensionalen Raum vorstellen. Jeder Punkt ist eine Kombination aus Basisvektoren.

Grundidee: Rechnen mit verrauschten Gleichungen

Das zentrale Problem hinter vielen PQC-Verfahren ist Learning With Errors (LWE).

Dabei wird ein lineares Gleichungssystem absichtlich mit Rauschen versehen:

b = A · s + e
  • A → bekannte Matrix
  • s → geheimer Vektor (gesuchter Schlüssel)
  • e → zufälliges Rauschen (kleine Fehler)

Ziel ist es, aus A und b den geheimen Vektor s zu rekonstruieren.

Warum ist das schwer?

Ohne Rauschen wäre das ein normales lineares Gleichungssystem und leicht lösbar. Durch das Rauschen wird das Problem jedoch instabil:

  • Kleine Fehler verfälschen jede Gleichung
  • Viele Lösungen erscheinen plausibel
  • Der Suchraum wird extrem gross

Das Problem entspricht geometrisch der Suche nach einem Punkt im Gitter, der „nahe genug“ an einem verrauschten Zielpunkt liegt.

Intuition:

Du suchst einen exakten Punkt – bekommst aber nur leicht verschobene Hinweise. Diese Ungenauigkeit macht das Problem extrem schwer.

Warum auch Quantencomputer hier nicht helfen

Für Probleme wie Faktorisierung existiert mit Shor ein effizienter Quantenalgorithmus. Für Gitterprobleme wie LWE gilt das aktuell nicht.

Die besten bekannten Angriffe – sowohl klassisch als auch quantenbasiert – haben weiterhin sehr hohen Aufwand.

  • Keine bekannte polynomielle Lösung
  • Angriffe bleiben exponentiell oder sub-exponentiell
  • Parameter können gezielt erhöht werden

Kernaussage:

Lattice-basierte Kryptografie bleibt auch unter Quantenangriffen schwer, weil kein „Shor-Äquivalent“ existiert.

Vom LWE zu echten Verfahren (Kyber / Dilithium)

In der Praxis werden optimierte Varianten verwendet, z. B.:

  • Ring-LWE (RLWE)
  • Module-LWE (MLWE)

Diese reduzieren Speicherbedarf und erhöhen die Effizienz, ohne die Sicherheitsannahmen wesentlich zu verändern.

  • Kyber → basiert auf Module-LWE (für Schlüsselaustausch)
  • Dilithium → basiert ebenfalls auf Gitterproblemen (für Signaturen)

Warum diese Verfahren grösser sind

Ein Nachteil von PQC ist die grössere Datenmenge:

  • Grössere öffentliche Schlüssel
  • Grössere Ciphertexts
  • Grössere Signaturen

Das liegt daran, dass viele Vektoren und Matrizen gespeichert werden müssen, anstatt nur einzelne Zahlen wie bei RSA oder ECC.

Einfaches Beispiel (stark vereinfacht)

Ein minimalistisches Konzept könnte so aussehen:

# stark vereinfacht – nur zur Illustration
        
        import numpy as np
        
        A = np.random.randint(0, 100, (3,3))
        s = np.random.randint(0, 10, (3,1))
        e = np.random.randint(-1, 2, (3,1))  # kleines Rauschen
        
        b = A @ s + e
        
        print("A:", A)
        print("b:", b)
        
        # Angreifer sieht nur A und b → s rekonstruieren ist schwer

Wichtig:

Dieses Beispiel ist stark vereinfacht. Reale Verfahren arbeiten mit grossen Dimensionen, modularer Arithmetik und sorgfältig gewählten Parametern.

Warum Entwickler darauf setzen sollten

  • Keine bekannten effizienten Quantenangriffe
  • Standardisierung durch NIST
  • Bereits in reale Systeme integrierbar

Für Entwickler bedeutet das: Die Zukunft der Public-Key-Kryptografie liegt sehr wahrscheinlich in gitterbasierten Verfahren.

Konkrete Angriffsszenarien mit Quantencomputern

Die Bedrohung durch Quantencomputer ist nicht nur theoretisch. In vielen Systemen existiert bereits heute ein reales Risiko – vor allem durch das Prinzip „harvest now, decrypt later“.

Angriffsszenario 1: Aufgezeichnete TLS-Verbindungen

Ein Angreifer zeichnet heute verschlüsselte Verbindungen auf, z. B. HTTPS-Traffic.

  • 2026: TLS-Verbindung wird mit RSA oder klassischem ECDH aufgebaut
  • Angreifer speichert den gesamten Traffic
  • 2035+: Quantencomputer verfügbar
  • → nachträgliche Entschlüsselung möglich

Problem:

Die Sicherheit war nur zeitlich begrenzt – nicht dauerhaft.

Selbst wenn die Daten heute sicher erscheinen, kann ihre Vertraulichkeit in der Zukunft komplett verloren gehen.

Angriffsszenario 2: Fehlende Forward Secrecy

Wenn kein Forward Secrecy verwendet wird, ist das Risiko noch höher.

  • Server verwendet statischen RSA-Schlüssel
  • Angreifer erhält später den privaten Schlüssel
  • → alle alten Verbindungen können entschlüsselt werden

Forward Secrecy:

Jede Sitzung verwendet einen neuen temporären Schlüssel.

Allerdings: Forward Secrecy schützt nicht gegen Quantenangriffe auf den Schlüsselaustausch selbst.

Angriffsszenario 3: Signaturen und Software-Updates

Digitale Signaturen sichern heute Software-Updates, Firmware und Container-Images.

  • Code wird mit ECDSA signiert
  • Public Key ist öffentlich bekannt
  • Quantencomputer berechnet privaten Schlüssel
  • → Angreifer kann gültige Signaturen erzeugen

Konsequenz:

Manipulierte Updates können als vertrauenswürdig erscheinen.

Das betrifft insbesondere:

  • IoT-Geräte
  • Industrieanlagen
  • Software-Lieferketten (Supply Chain)

Angriffsszenario 4: VPN und langfristige Schlüssel

Viele VPN-Systeme verwenden langfristige Schlüssel oder Zertifikate.

  • Angreifer zeichnet verschlüsselten Traffic auf
  • Schlüssel werden später gebrochen
  • → gesamte Kommunikation rekonstruierbar

Besonders kritisch:

  • Behördenkommunikation
  • Industriegeheimnisse
  • medizinische Daten

Angriffsszenario 5: PKI-Infrastruktur

Die gesamte Public-Key-Infrastruktur basiert auf vertrauenswürdigen Zertifikaten.

  • Root-CA verwendet RSA oder ECC
  • Quantencomputer kompromittiert den privaten Schlüssel
  • → komplette Zertifikatskette wird unsicher

Worst Case:

Angreifer kann beliebige Zertifikate ausstellen (z. B. für HTTPS).

Warum diese Szenarien heute schon relevant sind

Der kritische Punkt ist die Lebensdauer der Daten.

  • Kurzlebige Daten → geringes Risiko
  • Langfristig vertrauliche Daten → hohes Risiko

Beispiele für kritische Daten:

Gesundheitsdaten, Verträge, industrielle Geheimnisse, staatliche Kommunikation

Fazit für Entwickler

Die grösste Gefahr ist nicht der Angriff von morgen, sondern die Verzögerung der Migration.

  • Angreifer sammeln heute Daten
  • Angriffe erfolgen in der Zukunft

Kernaussage:

Wenn Daten länger geschützt bleiben müssen, als die erwartete Zeit bis zu praktischen Quantencomputern, ist PQC bereits heute notwendig.

Performance und Trade-offs von Post-Quantum-Kryptografie

Post-Quantum-Kryptografie ist nicht einfach ein „Drop-in-Replacement“ für RSA oder ECC. Sie bringt reale technische Auswirkungen auf Performance, Speicher und Netzwerk mit sich.

Grössenvergleich: klassische vs. PQC-Verfahren

Verfahren Public Key Signatur Kommentar
ECDSA ~32 Byte ~64 Byte Sehr kompakt
Dilithium ~1–2 kB ~2–3 kB Deutlich grösser
Kyber ~1–2 kB ~1–2 kB (Ciphertext) Für Key Exchange

Die Grössenunterschiede wirken sich direkt auf Netzwerkprotokolle und Speicherbedarf aus.

Faktor: PQC-Schlüssel sind typischerweise 10–100× grösser als klassische Schlüssel.

Auswirkungen auf TLS und Netzwerk

Grössere Schlüssel und Signaturen führen zu:

  • Grösseren TLS-Handshakes
  • Mehr Netzwerkpaketen
  • Höherer Latenz bei Verbindungsaufbau

Beispiel:

  • ECDSA-Zertifikat → wenige hundert Bytes
  • Dilithium-Zertifikat → mehrere Kilobyte

Das kann insbesondere relevant sein für:

  • Mobile Netzwerke
  • IoT-Geräte
  • High-Frequency APIs

CPU- und Rechenaufwand

PQC ist nicht immer langsamer – aber anders verteilt:

  • Key Generation → oft teurer
  • Signieren → moderat
  • Verifikation → teilweise schneller als klassische Verfahren

Das bedeutet:

  • Server mit vielen Verifikationen profitieren teilweise
  • Geräte mit wenig CPU können belastet werden

Speicher- und Infrastrukturkosten

Durch grössere Schlüssel entstehen zusätzliche Anforderungen:

  • Mehr RAM für Schlüssel und Buffers
  • Grössere Zertifikate in PKI-Systemen
  • Mehr Speicherbedarf in Datenbanken

Hybrid-Kryptografie als Übergangslösung

In der Praxis wird aktuell meist ein hybrider Ansatz verwendet:

  • Klassisch (z. B. X25519)
  • +
  • PQC (z. B. Kyber)

Beide Schlüssel werden kombiniert, sodass Sicherheit gegen beide Angriffsmodelle besteht.

Vorteil: Kompatibilität mit bestehenden Systemen

Nachteil: Noch grössere Datenmengen und komplexere Implementierung

Typische Fehler in der Praxis

  • PQC ohne Performance-Tests einsetzen
  • Handshake-Grösse unterschätzen
  • Keine Fallback-Strategie implementieren
  • Krypto-Agilität nicht berücksichtigen

Engineering-Empfehlungen

  • Immer Benchmarks durchführen (TLS, API, Load)
  • Hybrid-Krypto zuerst in Staging testen
  • Bandbreite und Latenz messen
  • Speicherverbrauch im Auge behalten

Kernaussage:

PQC ist sicherheitstechnisch notwendig, aber bringt reale Kosten. Gute Architektur entscheidet darüber, ob diese Kosten beherrschbar bleiben.

Threat Model: Wer greift dich an und was ist realistisch?

Sicherheitsentscheidungen sind nur sinnvoll, wenn klar ist, gegen wen man sich schützt. Im Kontext von Quantencomputern unterscheiden sich Angreifer stark in ihren Fähigkeiten, Zeithorizonten und Ressourcen.

Angreiferklassen

1. Passiver Angreifer (Traffic Capture)

Der einfachste, aber oft unterschätzte Angreifer:

  • zeichnet verschlüsselten Traffic auf
  • greift nicht aktiv ein
  • wartet auf zukünftige Entschlüsselungsmöglichkeiten

Risiko:

„Harvest now, decrypt later“ – Daten werden heute gesammelt und später entschlüsselt.

Dieser Angreifer ist heute bereits realistisch (z. B. Internet-Backbone, staatliche Akteure).

2. Aktiver Angreifer (MITM)

Ein aktiver Angreifer kann Verbindungen manipulieren:

  • führt Man-in-the-Middle-Angriffe durch
  • erzwingt schwächere Algorithmen
  • nutzt Implementierungsfehler aus

Mit Quantencomputern kann dieser Angreifer zusätzlich:

  • Schlüssel rekonstruieren
  • Verbindungen aktiv entschlüsseln
3. Staatlicher Akteur (High-End Angreifer)

Der relevanteste Gegner im Kontext von Quantencomputern:

  • verfügt über grosse Rechenressourcen
  • kann Daten über Jahre speichern
  • hat Zugriff auf zukünftige Technologien

Realität:

Die ersten praktischen Quantenangriffe werden sehr wahrscheinlich von staatlichen Akteuren ausgehen.

Angriffsziele

Nicht alle Daten sind gleich kritisch. Entscheidend ist die Schutzdauer.

  • Kurzfristig (Minuten–Tage): geringes Risiko
  • Mittelfristig (Monate–Jahre): moderates Risiko
  • Langfristig (10+ Jahre): hohes Risiko

Kritische Daten:

Gesundheitsdaten, Verträge, industrielle Geheimnisse, staatliche Kommunikation

Wann ist PQC wirklich notwendig?

Eine einfache Entscheidungsregel für Entwickler:

if (Schutzdauer > Zeit_bis_Quantencomputer):
    PQC jetzt einführen
else:
    Migration planen

Dabei ist „Zeit bis Quantencomputer“ bewusst unscharf – genau das macht die Planung schwierig.

Typische Fehlannahmen

  • „Quantencomputer sind noch weit weg“ → Migration dauert länger als gedacht
  • „Unsere Daten sind nicht interessant“ → oft falsch eingeschätzt
  • „Forward Secrecy reicht“ → schützt nicht gegen alle Szenarien

Risikobewertung in der Praxis

Ein realistisches Modell kombiniert mehrere Faktoren:

  • Datenwert
  • Schutzdauer
  • Angreiferfähigkeiten
  • Systemexposition (Internet, internes Netz, IoT)

Daraus ergibt sich:

  • High Risk: sofort PQC / Hybrid einsetzen
  • Medium Risk: Migration vorbereiten
  • Low Risk: beobachten und planen

Kernaussage:

Sicherheit gegen Quantencomputer ist kein „alles oder nichts“-Problem, sondern eine Frage von Zeit, Datenwert und Angreifer.

Praktische Umsetzung: von der Theorie zum Prototyp

Post-Quantum-Kryptografie ist nicht nur ein theoretisches Forschungsthema, sondern bereits heute in Bibliotheken, Testumgebungen und ersten Integrationen verfügbar. Für Entwickler ist entscheidend, die Beispiele richtig einzuordnen:

  • Didaktische Beispiele erklären das mathematische Prinzip
  • PoC-Beispiele zeigen die API und den Ablauf
  • Integrationsbeispiele zeigen, wie PQC in TLS, Services und Infrastruktur eingebunden wird

Wichtig: Die folgenden Codeblöcke sind bewusst nicht als sofort produktionsreife Komplettlösung gedacht.

Sie dienen dazu, Konzepte, API-Verhalten, Integrationspunkte und typische Migrationsschritte technisch greifbar zu machen.

Didaktisches Beispiel: verrauschte lineare Gleichungen als Grundidee von LWE

Der folgende Code ist keine echte Kryptobibliothek, sondern nur eine vereinfachte Illustration der mathematischen Idee hinter gitterbasierten Verfahren. Er zeigt, warum ein lineares Gleichungssystem durch kleines Rauschen plötzlich schwer rekonstruierbar werden kann.

import numpy as np

# Didaktisches Beispiel: stark vereinfacht
# A = öffentliche Matrix
# s = geheimer Vektor
# e = kleines Rauschen
# b = beobachteter Wert

A = np.random.randint(0, 100, (3, 3))
s = np.random.randint(0, 10, (3, 1))
e = np.random.randint(-1, 2, (3, 1))

b = A @ s + e

print("Öffentliche Matrix A:")
print(A)
print("Beobachteter Vektor b:")
print(b)

# Ein Angreifer kennt hier nur A und b.
# Ohne Rauschen wäre s leicht berechenbar.
# Durch das zusätzliche Rauschen wird die Rekonstruktion deutlich schwieriger.

Einordnung: Dieses Beispiel veranschaulicht nur das Prinzip „Struktur + Rauschen = schweres Problem“.

Reale PQC-Verfahren arbeiten mit modularer Arithmetik, Polynomen, grossen Dimensionen und sorgfältig gewählten Parametern.

PoC-Beispiel: Post-Quantum-KEM und Signatur in Python mit liboqs

Dieses Beispiel zeigt einen minimalen Proof of Concept mit liboqs. Es eignet sich, um den grundlegenden Ablauf eines quantensicheren Schlüsselaustauschs und einer Signatur technisch zu verstehen:

  • Schlüsselpaar erzeugen
  • Shared Secret kapseln und entkapseln
  • Nachricht signieren und verifizieren

Solche Tests sind besonders sinnvoll für frühe Evaluationsphasen in Backend-Diensten, Security-Gateways oder internen Toolchains.

import oqs

# -----------------------------
# 1) KEM / Schlüsselaustausch
# -----------------------------
# Ziel: Zwei Seiten erzeugen ein gemeinsames Shared Secret,
# ohne dass dieses direkt übertragen wird.

with oqs.KeyEncapsulation("Kyber768") as kem_alice:
    public_key = kem_alice.generate_keypair()

    # Die Gegenseite kapselt ein Shared Secret mit dem Public Key
    ciphertext, shared_secret_enc = kem_alice.encap_secret(public_key)

    # Die ursprüngliche Seite entkapselt das Secret wieder
    shared_secret_dec = kem_alice.decap_secret(ciphertext)

    assert shared_secret_enc == shared_secret_dec
    print("KEM erfolgreich: Shared Secret identisch")

# -----------------------------
# 2) Signatur / Authentizität
# -----------------------------
# Ziel: Eine Nachricht so signieren, dass ihre Echtheit
# und Unverändertheit verifiziert werden kann.

with oqs.Signature("Dilithium5") as sig:
    public_sig_key = sig.generate_keypair()

    message = b"Vertrauliche Nachricht"
    signature = sig.sign(message)

    valid = sig.verify(message, signature, public_sig_key)
    print("Signatur gueltig:", valid)

Einordnung: Dieses Beispiel ist gut für lokale Tests, API-Verständnis und erste Performancemessungen.

Nicht gezeigt: sicheres Schlüsselhandling, persistente Speicherung, HSM-Anbindung, Fehlerbehandlung, Logging-Strategie und Lifecycle-Management.

Integrationsbeispiel: PQC in Go mit CIRCL

Dieses Beispiel zeigt denselben Grundgedanken in Go. Es ist besonders interessant für Entwickler, die an Services, Gateways oder Sicherheitskomponenten arbeiten und PQC früh in bestehende Backend-Systeme integrieren möchten.

package main

import (
    "bytes"
    "crypto/rand"
    "fmt"

    "github.com/cloudflare/circl/kem/kyber/kyber1024"
)

func main() {
    // Schlüsselpaar für den KEM-Ablauf erzeugen
    pub, priv, err := kyber1024.GenerateKeyPair(rand.Reader)
    if err != nil {
        panic(err)
    }

    // Die "sendende" Seite kapselt ein Shared Secret
    ct, ssEnc := pub.Encapsulate(rand.Reader)

    // Die "empfangende" Seite entkapselt das Shared Secret
    ssDec := priv.Decapsulate(ct)

    if !bytes.Equal(ssEnc, ssDec) {
        fmt.Println("Fehler: Shared Secrets stimmen nicht überein")
        return
    }

    fmt.Println("KEM erfolgreich: Shared Secret identisch")
}

Einordnung: Dieses Beispiel ist näher an echter Service-Integration als ein rein mathematischer Demo-Code.

Typische nächste Schritte: Benchmarking, Lasttests, Fehlerpfade, Konfigurationsverwaltung und Einbettung in bestehende Handshake- oder Session-Logik.

Integrationsbeispiel: Hybrid-TLS im Lab oder Staging

In der Praxis beginnt PQC-Migration selten direkt auf Anwendungsebene, sondern oft bei der Transportverschlüsselung. Ein sinnvoller erster Schritt ist deshalb eine hybride TLS-Testumgebung, in der klassische und post-quantenbasierte Verfahren parallel evaluiert werden.

Der folgende Abschnitt zeigt keinen vollständigen Produktions-Rollout, sondern einen typischen Lab-/Staging-Ansatz:

  • OpenSSL mit PQC-Erweiterung prüfen
  • hybride Gruppen konfigurieren
  • Verbindungsaufbau und Interoperabilität testen
# Verfügbare Provider anzeigen
openssl list -providers

# Beispiel: OpenSSL-Konfiguration so setzen,
# dass ein PQC-Provider (z. B. oqsprovider) geladen wird
export OPENSSL_CONF=/etc/ssl/openssl.cnf

# Danach können in einer Testumgebung hybride Gruppen
# und PQ-fähige TLS-Konfigurationen geprüft werden.

Ein minimaler Python-Client für einen ersten Verbindungstest könnte so aussehen:

import ssl
import socket

# Starken TLS-Kontext aufbauen
context = ssl.create_default_context()
context.set_ciphers("TLS_AES_256_GCM_SHA384")

# Optional: hybride Gruppe aktivieren, falls lokal verfügbar
# Achtung: Syntax und Verfügbarkeit hängen stark vom Build ab
# context.set_ecdh_curve("X25519:MLKEM768")

with context.wrap_socket(socket.socket(), server_hostname="example.com") as conn:
    conn.connect(("server.example.com", 8443))
    conn.send(b"GET / HTTP/1.0\r\nHost: example.com\r\n\r\n")
    response = conn.recv(4096)
    print(response.decode(errors="ignore"))

Einordnung: Dieses Beispiel zeigt, wie eine hybride TLS-Evaluierung technisch vorbereitet werden kann.

Für Produktion zusätzlich nötig: Kompatibilitätstests mit Clients, Zertifikatsstrategie, Monitoring, Lasttests, Rollback-Pfade und genaue Prüfung der eingesetzten OpenSSL-/Provider-Version.

Was du bei PQC-Code praktisch testen solltest

Der eigentliche Mehrwert von PQC-Prototypen entsteht nicht durch das reine „Laufen lassen“ der Bibliothek, sondern durch gezielte technische Tests.

  • API-Stabilität: Wie ändern sich Bibliotheken und Parameternamen?
  • Performanz: Wie hoch sind CPU-Zeit, RAM-Verbrauch und Latenz?
  • Handshake-Grösse: Wie stark wachsen Schlüssel, Ciphertexts und Zertifikate?
  • Fehlerpfade: Was passiert bei nicht unterstützten Gruppen oder Versionen?
  • Interoperabilität: Funktionieren Clients, Server, Proxies und Load-Balancer gemeinsam?

Praxisregel: Ein guter PQC-Prototyp beantwortet nicht nur „funktioniert es?“, sondern vor allem „wie integriert es sich in unser reales System?“

PQC-Migrationscheckliste für Teams

Eine erfolgreiche PQC-Migration beginnt nicht mit dem sofortigen Austausch aller Algorithmen, sondern mit einer sauberen technischen Bestandsaufnahme und einem kontrollierten Einführungsplan. Die folgende Checkliste ist für Entwickler, Architekten und Infrastrukturteams gedacht.

Schritt Warum technisch wichtig Typische Artefakte Konkrete Aktion
1. Kryptografie-Inventar Nur wer alle RSA-/ECC-Abhängigkeiten kennt, kann eine realistische Migration planen. TLS-Konfigurationen, Zertifikate, SSH-Keys, Signaturpfade, JWT-/Token-Keys Alle kryptografischen Komponenten dokumentieren und nach Verfahren, Schlüssellänge und Einsatzort erfassen.
2. Datenklassifikation Der Migrationsdruck hängt von der Schutzdauer und dem Datenwert ab. Personendaten, Verträge, Telemetrie, Backups, Logdaten, Geheimnisse Daten nach Schutzdauer klassifizieren und Langzeitdaten mit 10+ Jahren Vertraulichkeitsbedarf priorisieren.
3. Krypto-Agilität Ohne austauschbare Algorithmen wird jede spätere Umstellung teuer und fehleranfällig. Konfigurationsdateien, Crypto-Abstraktionen, Policy-Layer Verfahren, Parameter und Provider über Konfiguration oder saubere Schnittstellen austauschbar machen.
4. Hybrid-Pilot Hybrid-Krypto reduziert Migrationsrisiko und liefert frühe Interoperabilitätserfahrung. Hybrid-TLS, Testzertifikate, PQC-fähige Clients/Server In Staging oder Lab zuerst X25519 + ML-KEM bzw. klassische + PQC-Verfahren parallel testen.
5. Key-Management PQC betrifft nicht nur Algorithmen, sondern auch Schlüsselspeicher, Rotation und Lifecycle. HSM, TPM, PKI, Secrets-Management, Ablaufzeiten Schlüsselrotation, Gültigkeiten, Backup- und Recovery-Prozesse sowie HSM-/TPM-Strategie aktualisieren.
6. Performance- und Kompatibilitätstests Grössere Schlüssel und Signaturen beeinflussen Latenz, Speicher und Netzwerkverhalten. Handshake-Zeit, Paketgrössen, CPU-Auslastung, RAM-Verbrauch, Client-Kompatibilität Benchmarks durchführen und PQC-Verhalten unter Last, auf mobilen Clients und hinter Proxies testen.
7. Rollout-Plan Ohne Fallbacks und Monitoring wird eine kryptografische Umstellung schnell zum Betriebsrisiko. Feature-Flags, Deployment-Stufen, Observability, Rollback-Pfade Stufenweisen Rollout definieren, Fallbacks vorbereiten und Metriken für Fehler, Latenz und Interoperabilität überwachen.

Praxisregel: PQC-Migration ist kein einzelnes Ticket, sondern ein mehrstufiges Infrastruktur- und Architekturprojekt.

Migrationsfluss (visuell)

Der folgende Ablauf zeigt die typische Reihenfolge einer technisch sauberen Migration: zuerst Sichtbarkeit schaffen, dann Risiken priorisieren, anschliessend hybride Verfahren testen und erst danach kontrolliert ausrollen.

Migrationsfluss zur Einführung von Post-Quanten-Kryptografie
Visualisierter Migrationsfluss von der Analyse über Hybrid-Krypto bis zum überwachten Rollout.

So liest sich der Migrationsfluss:

Analyse: Zuerst wird geklärt, wo RSA, ECC, klassische Zertifikate oder klassische Signaturen überhaupt im System vorkommen.

Bewertung: Danach wird entschieden, welche Daten und Verbindungen sofortigen Handlungsbedarf haben – insbesondere bei langer Schutzdauer.

Härtung: Symmetrische Verfahren werden auf robuste Parameter wie AES-256 und SHA-384/512 angehoben.

Einführung: PQC wird nicht blind ausgerollt, sondern zunächst hybrid eingeführt, damit klassische und post-quantenbasierte Verfahren parallel funktionieren.

Validierung: Vor Produktion werden Interoperabilität, Performance und Fehlerpfade getestet.

Betrieb: Erst danach folgt ein kontrollierter Rollout mit Monitoring, Feature-Flags und klaren Rollback-Pfaden.

Was passiert, wenn du nichts machst?

Der Verzicht auf eine PQC-Strategie bedeutet nicht nur ein zukünftiges Kryptorisiko, sondern auch ein architektonisches und betriebliches Risiko.

Vertraulichkeitsrisiko: Langfristig schützenswerte Daten können heute abgefangen und später mit stärkeren Angreifern oder zukünftigen Quantencomputern entschlüsselt werden.

Betriebsrisiko: Eine zu spät gestartete Migration erzeugt massiven Zeitdruck in PKI, Clients, Gateways, APIs, Zertifikatsketten und Betriebsprozessen.

Architekturrisiko: Ohne Krypto-Agilität wird jeder spätere Algorithmuswechsel teuer, fehleranfällig und schwer testbar.

Der gefährlichste Fehler ist daher nicht, heute noch klassische Verfahren zu betreiben, sondern die Migration so lange aufzuschieben, bis sie unter Zeitdruck und ohne saubere Architektur nachgeholt werden muss.

Fazit und nächste Schritte für Entwickler

Quantencomputer sind keine abstrakte Zukunftsidee mehr, sondern ein realer Planungsfaktor für die Kryptografie moderner Systeme. Die eigentliche Gefahr liegt nicht darin, dass morgen plötzlich jede Verschlüsselung gebrochen wird, sondern darin, dass heutige Sicherheitsannahmen für Public-Key-Verfahren langfristig nicht mehr stabil sind.

Technisch ist der Unterschied fundamental: Klassische Kryptografie wie RSA und ECC basiert auf mathematischen Problemen, die für klassische Computer praktisch unlösbar sind. Quantenalgorithmen wie Shor verändern diese Annahme grundlegend. Gleichzeitig zeigen Post-Quantum- Verfahren wie ML-KEM und ML-DSA, dass quantensichere Alternativen auf klassischer Hardware bereits heute implementierbar sind – allerdings mit realen Trade-offs bei Schlüssellängen, Signaturgrössen, Netzwerk-Overhead und Integrationsaufwand.

Für Entwickler und Architekten bedeutet das: Die wichtigste Aufgabe ist nicht der sofortige Komplettumbau aller Systeme, sondern der Aufbau von Krypto-Agilität. Wer Algorithmen austauschbar macht, hybride Verfahren testet, den Schlüssellifecycle sauber verwaltet und seine kritischen Datenflüsse kennt, schafft die Grundlage für eine kontrollierte PQC-Migration.

Praktische Kernaussage:

Public-Key-Kryptografie muss langfristig ersetzt oder hybridisiert werden.

Symmetrische Verfahren bleiben nutzbar, sollten aber auf starke Parameter wie AES-256 und SHA-384/512 gesetzt werden.

Entscheidend ist nicht Panik, sondern frühe technische Vorbereitung.

Der sinnvollste nächste Schritt ist deshalb klar:

  • bestehende kryptografische Abhängigkeiten inventarisieren
  • langfristig schützenswerte Daten identifizieren
  • hybride PQC-Prototypen in Staging aufbauen
  • Performance, Interoperabilität und Rollback-Pfade testen

Wer diese Schritte heute einleitet, reduziert nicht nur das zukünftige Risiko, sondern verhindert auch, dass die eigene Organisation später unter hohem Zeitdruck migrieren muss.

Quellen und Hinweise

Die Empfehlungen in diesem Bericht orientieren sich an öffentlichen Leitfäden und Veröffentlichungen von NIST, NSA/CNSA, BSI, IETF und dem Open-Quantum-Safe-Umfeld.

Lizenzhinweis: Die gezeigten Codebeispiele basieren auf Open-Source-Bibliotheken (z. B. liboqs: MIT, CIRCL: BSD-3-Clause). Beispiele sind vereinfacht und dienen zur Illustration. Für Produktivbetrieb sind Security-Reviews, HSM-Strategie, Schlüssellifecycle und regelmässige Updates zwingend.

Autor: Ruedi von Kryentech

Erstellt am: 06.04.2026 · Zuletzt aktualisiert: 06.04.2026

Fachlicher Stand zum Zeitpunkt der letzten Aktualisierung.