Sie sind hier: HomeTelekommunikation

Verschlüsselung: Die Zukunft der Kryptographie im Zeitalter der Quantencomputer

Im Jahr 2006 trafen sich erstmals Kryptologen aus der ganzen Welt zur PQCrypto-Konferenz in Leuven, Belgien, um sich über den Stand ihrer jeweiligen Forschungen auszutauschen. Inzwischen ist in die Diskussion um Quantencomputer-resistente Verschlüsselung viel Bewegung gekommen.

Verschlüsselung Bildquelle: © Michael Borgers - 123RF

Seit über 20 Jahren ist bekannt, dass der für Quantencomputer entwickelte Shor Algorithmus die gängige Public-Key-Kryptographie brechen kann. Die Quantencomputer-Entwicklung machte in jüngerer Zeit enorme Fortschritte. Große Unternehmen wie Google, IBM, Microsoft, Intel oder auch verschiedene Staaten räumen der Entwicklung von Quantencomputern eine hohe Priorität ein und liefern sich ein Wettrennen um die sogenannte „Quantum Supremacy“. Im Januar hat Intel auf der CES 2018 einen 49 Qubit Quantenchip angekündigt, dies zeigt das enorme Tempo, mit dem Wissenschaftler an der Entwicklung eines praktikablen Quantencomputers arbeiten.

Verschlüsselung nimmt Fahrt auf

Public-Key-Kryptographie ist unverzichtbar für die Sicherheit von IT-Systemen und besonders für das Internet. Neue starke kryptographische Verfahren werden im Quantencomputer-Zeitalter eine wichtige Rolle in der Entwicklung der IT-Sicherheit spielen. Viele heute an der Entwicklung beteiligte Unternehmen erwarten, dass Quantencomputer enorme Geschäftsmöglichkeiten eröffnen. „Sie werden in der Lage sein, naturwissenschaftliche Experimente zu simulieren und damit die Entwicklung von neuen Materialien oder Medikamenten enorm zu beschleunigen“, berichtet Prof. Dr. Johannes Alfred Buchmann von der TU-Darmstadt, der sich u.a. als Mitinitiator der PQCrypto-Konferenzen seit Jahren mit der Thematik beschäftigt. Er ist sich deshalb sicher: „Die heutige Public-Key-Kryptographie muss ersetzt werden.“ Das Anliegen der Post-Quanten-Kryptographie ist die Entwicklung neuer Verfahren von den Grundlagen bis zur Integration in Anwendungen.

Sein Darmstädter Kollege Dr. Rachid El Bansarkhani und CEO von QuantiCor Security erklärt: „Post-Quanten-Kryptographie wird heute auf der Basis verschiedener Berechnungsprobleme konstruiert. Diese Berechnungsprobleme sind nach Überzeugung der Wissenschaft auch für Quantencomputer unlösbar.“ Es gibt inzwischen viele konkrete Vorschläge für neue Verfahren auf der Basis dieser Probleme. Es gibt auch umfangreiche Forschung, die die Sicherheit der Verfahren untersucht. Auch Implementierungen stehen zur Verfügung. Erste Standardisierungsbemühungen laufen bereits. Am weitesten sind die sogenannten Hash-basierten Signaturverfahren. Zusätzlich beschäftigen sich Wissenschaftler auf der ganzen Welt unter anderem mit Gitter-basierten Verfahren. Diese sind sehr flexibel und erlauben die Realisierung sehr vieler Funktionen. „An der TU Darmstadt haben wir zum Beispiel die Verfahren XMSS (Hash-basierte Signatures), TESLA (Gitter-basierte Signaturen) und LARA und KINDI (Gitter-basierte Public-Key-Verschlüsselung) hervorgehoben. XMSS steht kurz vor der Standardisierung. TESLA, LARA und KINDI haben sehr hohe Sicherheitsgarantien, LARA und KINDI erlauben zusätzlich einen hohen Datendurchsatz,“ bewertet Prof. Buchmann die Chancen der Technologien. Darüber hinaus befasst sich auch das National Institute for Standards and Technology (NIST) in den USA mit Standardisierungen für Post-Quanten-Kryptographie. Entsprechend konnten bereits 69 Vorschläge eingereicht werden.

Sicherheitsrisiko schwache Verschlüsselung

Es ist ein Begleitumstand wissenschaftlichen und technischen Fortschritts, dass viele als sicher eingestufte Verschlüsselungen in Zukunft geknackt werden können. Dies konnte die Branche bereits an dem RSA 1024-Bit-Verfahren feststellen, als dieses im Jahr 2010 von Forschern geknackt wurde. Auch der in der Mitte der 1970er entwickelte Data Encryption Standard (DES) kann aufgrund von Anfang der 1990er Jahre entwickelten Angriffstechniken und schneller Hardware mittlerweile in wenigen Stunden gebrochen werden. In IT-Systemen und besonders im Internet muss die Software aus Sicherheitsgründen und aus funktionalen Gründen ständig aktualisiert werden. Dafür braucht es digitale Signaturen. Sie beweisen, dass die neue Software authentisch ist. Wenn die Authentizität nicht mehr garantiert werden kann, weil Angreifer Signaturen fälschen können, haben sie ein leichtes Spiel. Außerdem muss die Vertraulichkeit von Informationen in IT-Systemen langfristig geschützt werden. Dies ist für die Privatsphäre der Beteiligten unverzichtbar. Eine in wenigen Stunden knackbare Verschlüsselung kann diese nicht mehr gewährleisten. Es dauert Jahre, um Software in großen Unternehmen und Organisationen umzurüsten. Der Prozess von der Entscheidung bis zur Umsetzung kann sehr langwierig sein. Davon sind in hohem Maße auch KRITIS-Unternehmen betroffen.