Alle Nachrichten

Zurück zur Startseite

w

Fragen & Anregungen

redaktion@qubizz-news.de

Quantencomputer und Business

Die neuen Geschäftsmodelle des Quantencomputings

Bild: qubizz

Quantencomputer und Business

Die neuen Geschäftsmodelle des Quantencomputings

{

„Vieles deutet darauf hin, dass im Quantencomputing ein signifikantes disruptives Potenzial mit enormen Marktchancen steckt – vielleicht schneller und umfassender als wir uns aktuell vorstellen können. Das Qualifying für die Pole Positions ist jedenfalls bereits im Gange.“

Folker Scholz

Unternehmensberater und Digitalisierungs-Experte

November 2021

von Folker Scholz

Quantencomputing gehört zu den Hoffnungsträgern der IT-Innovation. Gleichzeitig zählt sie zu den am schwierigsten zu verstehenden Technologien. Was macht Quantencomputer eigentlich so besonders, welche Anwendungsfälle sind in der Zukunft zu erwarten sind welche Ansätze werden bereits derzeit in Deutschland verfolgt. Die Antworten auf diese Fragen helfen, die Chancen der neuen Technologie leichter zu verstehen.

Ein herkömmlicher Computer kennt nur zwei Zustände: An oder aus, null oder eins. Fasst man diese geschickt zusammen, lassen sich auch größere Zahlen, Buchstaben, Bilder oder Musik darstellen, berechnen, Prozesse codieren und komplexe Sachverhalte modellieren. Dennoch basiert alles im Kern auf der Betrachtung dieser Zustandswechsel den sogenannten „Binary Digits“ kurz „Bits“. Das allerdings sehr schnell. Moderne PC-Prozessoren schaffen Billionen Fließkommaoperationen pro Sekunde. Das klingt nach „enorm viel“ und ist es in gewisser Hinsicht auch. Bei allen Problemstellungen, bei denen es darum geht, Zahlen in den Grundrechenarten zu verarbeiten oder definierte Prozesse abzuarbeiten, leisten herkömmliche Computer einen sehr effizienten Job. Die Verarbeitung auch großer Datenmengen ist kein Problem. Der Computer „rennt schnell genug“ durch die Aufgabenstellungen. Und reicht die Geschwindigkeit nicht aus, steckt man, etwas vereinfacht ausgedrückt, mehr Prozessoren in einen Computer – die gängige Strategie bei der Entwicklung neuer Computer-Chips und von Supercomputern.

 Jenseits von Nullen und Einsen

Problematisch für herkömmliche Computer sind jedoch alle Fälle, in denen verschiedene Variablen in Beziehung gesetzt werden müssen. Ein Beispiel: Stellen Sie sich vor, Ihre Aufgabe ist es, in einem Gebäude in allen Räumen die Temperatur zu messen. Das Gebäude ist lang gezogen und besteht aus 10 Räumen. Kein Problem, Sie laufen ja schnell. Hat das Gebäude in drei Dimensionen jeweils 10 Räume, hat es mit anderen Worten 10 mal 10 Räume in der Grundfläche, und hat es darüber hinaus auch 10 Etagen, dürfen Sie schon 1000 Räumen aufsuchen, um die Messungen zu nehmen. Da bringt es wenig, doppelt oder dreifach so schnell zu laufen. Im übertragenen Sinne hilft es bei „Multi-Dimensions-Aufgaben“ wenig, weitere Prozessoren in den Rechner zu stecken. Jede Dimension vervielfacht die bereits bestehenden Möglichkeiten. Das „fatale“ Anwachsen solcher Exponentialfunktionen kennen Sie wahrscheinlich aus dem berühmten Beispiel der Verdopplung von Reiskörnern auf einem Schachbrett. Dieser Effekt wird umso stärker, wenn die Dimensionen beliebige Ausprägungen haben können. Wenn in unserem Beispiel also nicht die Temperatur in jedem Raum, sondern idealerweise an jeder Stelle des Raumes gemessen werden soll. Solche Ausgangssituationen sind in der Natur leider sehr real. Die Wetterentwicklung hängt ab von Daten über Temperatur, Lichtintensität, Luftdruck, Wind, räumlicher Positionen und manchem mehr, die dann zu Prognosen herangezogen werden sollen. Dieses Dilemma kennen wir alle vom Wetterbericht. Es macht keinen Sinn einen Monat zu rechnen, um einen präzisen Wetterbericht für Übermorgen zu erhalten. Die erforderliche Rechenzeit wird mit zunehmender Anzahl an Variablen und Ausprägungen sprunghaft immer länger und erreicht schnell unpraktikable Zeitspannen.

Um die Rechenzeiten auf ein handhabbares Maß zu senken, werden die Annahmen oft grob vereinfacht mit dem Nachteil, dass die Vorhersagen schnell unzuverlässig werden. Für solche Aufgabenstellungen kommen die Quantencomputer ins Spiel. Im subatomaren Bereich, da wo Partikel gleichzeitig auch Wellen sind, passieren ganz erstaunliche Dinge. Wellen und Felder
durchdringen und beeinflussen sich, und Wahrscheinlichkeiten ersetzen klare Zustände. Noch hat die Wissenschaft nicht alles ganz verstanden. Aber die Effekte sind messbar und damit auch nutzbar. Da die betrachteten Quanten nicht nur Einsen und Nullen darstellen, wird die Rechenleistung nicht in Bits angegeben, sondern in sogenannten Qubit. Diese können theoretisch eine beliebige Anzahl von Zuständen annehmen und das sogar gleichzeitig. Zudem ermöglicht ihre merkwürdige Eigenschaft sich zu verschränken, den Austausch von Informationen zwischen den Qubits in Lichtgeschwindigkeit. Vereinfacht gesagt wissen die Quanten irgendwie übereinander Bescheid. Es bedarf daher nur weniger Qubits, um eine Vielzahl an Zuständen und ihrer Zusammenhänge in Berechnungen zusammen zu fassen.

In unserem Beispiel mit der Temperaturmessung wäre das so, als ob alle Informationen zur Temperatur mit einem Mal über das ganze Haus abgefragt werden können und mit einem anderen Qubit zum Beispiel die Luftfeuchtigkeit. Zudem können beide Qubits unmittelbar in einem einfachen Algorithmus miteinander verarbeitet werden. Wenn Sie eine solche Abfragemöglichkeit haben, werden Sie nicht mehr durchs Haus rennen wollen. Noch erscheint die derzeit im zweistelligen Bereich angebotene Zahl der Qubits recht begrenzt. Zudem gibt es Herausforderungen, Fehler im Verarbeitungsprozess zu identifizieren und zu vermeiden. An diesen Baustellen wird in fast allen großen Industrienationen mit hohem finanziellen Aufwand intensiv geforscht und entwickelt. So sehen die Roadmaps von IBM und Google zum Beispiel bereits für 2023 Quantencomputer mit vierstelliger Qubitzahl und für das Ende des Jahrzehnts sogar welche mit mehr als 1 Million Qubits vor. Die Historie der Computertechnik lehrt, dass mit zunehmendem Verständnis der neuen Technologien, Leistungsfähigkeit und Qualität sowie die damit einhergehenden Anwendungsszenarien kontinuierlich wachsen.

 

Folker Scholz

 

Folker Scholz begleitet seit mehr als 30 Jahren Unternehmen der Entwicklung und Einführung digitaler Prozesse und Geschäftsmodelle. Er ist erfahrener Berater, Coach und Sparringspartner und beobachtet seit Jahren gesellschaftliche und technologische Trends. Als „Zukunfts-Agent“ hilft er Unternehmen bei der Früherkennung von Chancen und Risiken sowie der aktiven Suche nach neuen Ideen, Geschäftsmöglichkeiten und passenden Kooperationspartnern.

 

Optimierungspotenziale

Damit sind die interessanten Anwendungsfälle vorgezeichnet. Überall, wo planerisch mit einer Vielzahl von Variablen umgegangen werden muss, ist es naheliegend, Quantencomputer für einen optimierten Ressourceneinsatz anzuwenden. In Anlehnung an die Abkürzung „KI“ für Künstliche Intelligenz wird bereits schon von Quantenunterstützer Künstlicher Intelligenz, kurz „QKI“ gesprochen. Der erste Gedanke sind häufig komplexe Anwendungen, wie Wetterprognosen oder physikalische Modelle in Bereich der Astro- oder Teilchenphysik. Doch auch im ganz normalen Geschäftsalltag gibt es viele solche Problemstellungen. So ist z.B. die Einsatzplanung von Mitarbeitern ein Problem mit vielen Variablen: Qualifikationen, Urlaubsansprüche, verschiedene Kostensätze, zeitliche und fachliche Einsatz-Präferenzen, arbeitsrechtliche Schutzpflichten und plötzliche Ausfälle treffen zum Beispiel in einem Krankenhaus auf einen Kalender mit vielen Tagen und Stunden, auf geplante Operationen, ungeplante Notfälle und Krankheitswellen. Dafür optimale Einsatzpläne bei sich täglich
ad hoc verändernden Situationen zur Verfügung zu haben, ist nicht nur bezüglich eines möglichst effizienten Ressourceneinsatzes attraktiv, sondern auch in Hinblick auf zufriedene und daraus resultierend motivierte Mitarbeiter.

Weitere naheliegende Einsatzszenarien sind die Steuerung von Infrastrukturen mit vielen Teilnehmern und Einflüssen. Die Vernetzung kleinräumiger Versorger und Verbraucher im Energiesektor für regenerative Energien ist ebenso ein naheliegendes Szenario, wie eine bedarfsgerechte Verkehrssteuerung, mit Öffentlichem Personennahverkehr und zunehmend autonomen Individualverkehrssystemen. Auch wo Akteure und Aktoren in virtuelle Realitäten interagieren sollen, könnte die neue Technologie zu Innovationssprüngen führen. Digitale Prototypen – sogenannte Digitale Zwillinge –, die sich in einer möglichst wirklichkeitsnahen virtuellen Welt bewähren sollen, dürften davon ebenso profitieren, wie interaktive Spieleplattformen. In Szenarien, in denen Prognoserechnungen für Optimierungszwecke durchgerechnet werden, könnten Quantencomputer vielleicht überraschende Lösungen und Effizienzsteigerungen ermöglichen. Nicht nur Meteorologen, Versicherungsmathematiker und Marketing-Experten würden sich über bessere Trendprognosen freuen. Auch für Compliance-Verantwortliche, Werkstoffproduzenten und Anbieter von Wartungssystemen ist eine verbesserte Anomalie-Erkennung von essenzieller Bedeutung. Vielleicht wird uns die Quanten KI in Zukunft sogar helfen, Pandemien früher zu erkennen sowie Impfstoffe und Medikamente noch schneller zu entwickeln. Soweit zu den Chancen. Doch wie kommen die Qubits jetzt in eine neue Anwendung?

 

 Chancen für KI in Deutschland

Vorweg: Das Rechnen mit Qubits funktioniert natürlich etwas anders als auf herkömmlichen Rechnern. Man benötigt andere Algorithmen, andere Sprachelemente zur Steuerung und derzeit auch sehr spezielle Rechner aus Hightech Manufakturen. Die Bereitstellung von Rechenkapazitäten und speziellen Modulen, wie Datenbanken oder spezielle KI-Services aus der Cloud ist allerdings mittlerweile gängige Praxis. Daher ist die Einbeziehung von QKI im modernen Entwicklungsprozess und in eine bestehende Software- und Service-Landschaft eine prinzipiell lösbare Herausforderung. Alle großen Player, wie z.B. IBM, Google und Microsoft, arbeiten mittlerweile an Angeboten für Quantencomputing. Da Kooperation jedoch erfahrungsgemäß Entwicklungsprozesse dramatisch beschleunigt, organisieren sich die Pioniere dieser Technologie bereits in verschiedenen Ökosystemen.

Bezüglich anwendungsnaher Entwicklungen in Deutschland führend ist PlanQK, ein vom Bundesministerium für Wirtschaft und Energie gefördertes Konsortium unter Führung der Berliner Softwareschmiede StoneOne AG. Die Berliner moderner Middleware zur Einbindung in konventionelle Cloud Infrastrukturen und Marktplatzfunktionalität – also quasi um den App-Shop für die QKI-Anwendungen. Dazu gesellt sich ein illuster Kreis der deutschen und internationalen Forschungs- und Wirtschaftsszene, die aktuell ca. 30 Anwendungsfälle konkret bearbeiten. Schwergewichte wie die Telekom Innovation Laboratories, die Bundesdruckerei, die Deutsche-Bahn-Tocher DB Systel, der Maschinenbauspezialist Trumpf, das Beratungsunternehmen Accenture und die im öffentlichen Bereich aktive regio IT sind neben verschiedenen KI- und Quantencomputing Spezialisten auf der Wirtschafts- und Beratungsseite als Konsorten eingebunden. Sie alle haben Probleme in ihren eigenen Wertschöpfungsketten oder den Wertschöpfungsketten ihrer Kunden identifiziert, die sich mittels QKI deutlich besser lösen lassen. Die Wissenschaftsseite des Konsortiums wird ergänzt durch Fraunhofer Fokus, die Universität Stuttgart, die Freie Universität Berlin und die Ludwig-Maximilians-Universität, München. Dazu kommen mittlerweile rund fünfzig verschiedene assoziierte Partner wie zum Beispiel Daimler, Atos, die Deutsche Flugsicherung, IBM, Fujitsu, Infineon, Lufthansa Industry Solutions, NTT und Siemens. Auch Voice, der Bundesverband der IT-Anwender e.V., hat sich als assoziierter Partner angeschlossen.

Das breite Interesse zeugt von den großen Erwartungen in die Chancen der neuen Technologie und natürlich nicht zuletzt in die damit verbundenen Geschäftsmodelle. Wird eine bekannte Lieferkette auf ein neues Niveau gehoben, werden die Karten neu gemischt. Firmen der Chip-Entwicklung und Computerhersteller werden die Technologien entwickeln und verkaufen. Zusammen mit Unternehmen und wissenschaftlichen Einrichtungen der Verfahrens- und Algorithmus-Entwicklung entstehen neue Lösungen und QKI-spezifische Service-Angebote, die über Plattformen wie PlanQK vermarktbar sind. Software-Teams werden ihre Anwendungen anreichern und weiter entwickeln, um sich mit neuen oder leistungsfähigeren Angeboten gegenüber ihren Wettbewerbern besser zu positionieren. Expertise für IT Architektur und Datenmodellierung wird dabei helfen, die konkreten Aufgabenstellungen mit der neuen Technologie verarbeitbar zu machen und die erforderlichen Daten für das Training und die Optimierung zu sammeln und aufzubereiten. Schließlich werden die Management-Etagen der Unternehmen Coaching und Beratung benötigen, um die neuen Technologien zu verstehen und für die eigene Geschäftstätigkeit zu erschließen. Nicht zuletzt wird die Technologie mal mehr mal weniger erkennbar unsere Alltagswelt bereichern, vor allem durch das frühere Erkennen von Trends und das bessere Entscheiden in vielfältigen Situationen.

Noch steht die neue Technologie am Anfang. Vieles deutet jedoch darauf hin, dass ein signifikantes disruptives Potenzial mit enormen Marktchancen in ihr steckt – vielleicht schneller und umfassender als wir und aktuell vorstellen können. Das Qualifying für die Pole Positions ist jedenfalls bereits im Gange.

 

Qubizz News

Das Online-Magazin 

für angewandtes

Quantencomputing

redaktion@qubizz-news.de