Trends 2018: Beginning of the Quantum Future

Quantencomputer – ein Begriff, unter dem sich die meisten Menschen heute ungefähr so viel vorstellen können wie vor 50 bis 60 Jahren unter dem Wort “Computer”. Kein Zufall, ist doch das Stadium, in dem sich die Quantencomputer aktuell befinden, mit jenem der Digitalrechner in den 1950er und 1960er Jahren vergleichbar: Sie sind extrem teuer, können nur von einer Handvoll Personen bedient werden, ihre möglichen Einsatzfelder sind noch nicht klar umrissen – und doch setzen immer mehr große Unternehmen auf diese Technologie. Aus diesem Grund haben wir unserer Studie den Titel Beginning of the quantum future gegeben. Wir gehen zwar nicht davon aus, dass die Quantencomputer in den kommenden Monaten die Massenmarktreife erreichen werden. Wovon wir allerdings überzeugt sind, ist, dass in der unmittelbaren Zukunft Durchbrüche im Quantum Computing zu erwarten sind, die möglicherweise eine enorme Auswirkung auf eine Reihe von Branchen und Technologien haben werden.

Einführung: Was ist eigentlich Quantum Computing

Quantum Computing ist keine ganz neue Erfindung. Die theoretischen Grundlagen dieser Technologie  wurden schon der Mitte der 70er Jahren durch den polnischen Physiker Roman Stanisław Ingarden mit seinem Aufsatz „Quantum Information Theory“ gelegt.  Noch bevor Richard Feynman die Idee eines Quantencomputers popularisierte und zu einem der prominentesten Vertreter dieses Forschungsgebietes wurde, war es 1980 Paul Benioff, der als erster ein quantenmechanisches Modell eines Computers beschrieben hatte.

Ein Computer, dessen Rechenmodell auf Quantenmechanik fußt – was bedeutet das eigentlich? Quantencomputer nutzen die eigenartige Fähigkeit subatomarer Teilchen, gleichzeitig in mehr als einem Zustand zu existieren. Während die uns bekannten Digitalcomputer auf Bits mit einem Wert von 1 oder 0 basieren, existieren die Qubits (Quantum-Bits) eines Quantencomputers als Superposition aller möglichen Zustände, also 0 und 1 und alles dazwischen gleichzeitig.

Ein bekanntes Gedankenexperiment, das die Gesetze der Quantenmechanik greifbarer macht, ist Schrödingers Katze. Man stelle sich einen verschlossenen Behälter vor, in dem sich eine Katze, ein Gift, ein Geigerzähler, radioaktives Material und ein Hammer befinden. Die Menge an radioaktivem Material ist so klein, dass nur eine 50/50 Chance existiert, dass sie innerhalb einer Stunde vom Geigerzähler erfasst wird. Sollte dies passieren, zerschlägt der Hammer das Gift und die Katze stirbt. Solange niemand den Behälter geöffnet und das Resultat gesehen hat, wissen wir nicht, ob die Katze lebendig oder tot ist. Bis dahin existiert die Katze also in einem Superpositions-Zombie-Zustand, in dem sie sowohl lebendig als auch tot ist. Mit diesem Gedankenexperiment wollte Schrödinger die sogenannte Kopenhagener Interpretation der Quantenmechanik (also den von Nils Bohr und Werner Heisenberg unternommenen ersten allgemeinen Versuch, die Welt der Atome so zu verstehen, wie sie durch die Quantenmechanik repräsentiert wird) ins Lächerliche ziehen. Während es jedoch für einen Organismus wie eine Katze natürlich unmöglich ist, gleichzeitig lebendig und tot zu sein, haben spätere Experimente gezeigt, dass diese quantenmechanische Überlagerung von Zuständen für winzige Partikel wie Elektronen möglich ist.

Diese Fähigkeit macht es möglich, mit einem Quantencomputer Datenmengen zu verarbeiten, die uns aktuell als unendlich erscheinen. Während nämlich der gesamte Informationsgehalt, der von den Bits gespeichert wird, der Summe der auf den einzelnen Bits gespeicherten Informationen entspricht, wächst die durch einen Satz von Qubits gespeicherte Information exponentiell an und ermöglicht somit die Verarbeitung von praktisch unbegrenzten Mengen von Daten.

Dafür ist die sogenannte Quantenverschränkung erforderlich, bei der die miteinander verschränkten Teilchen nicht mehr als einzelne Teilchen mit definierten Zuständen beschrieben werden, sondern als ein Gesamtsystem. Das Problem dabei und der Hauptgrund, warum Quantencomputer so schwer herzustellen sind, liegt allerdings darin, dass solche Quantenregister (aus mehreren miteinander verschränkten Teilchen bestehende Systeme) sehr fragil sind. Den bisherigen Rekord hat IBM aufgestellt, dessen Quantencomputer 50 Qubits für 90 Mikrosekunden verschränkt hat. Sollte IBM in der Lage sein, diese Verschränkung zu stabilisieren und ihre Dauer zu verlängern, könnte es die Erreichung von “Quantum Supremacy” bedeuten. Mit Quantum Supremacy ist die Fähigkeit von Quantenmaschinen gemeint, klassische Computer zu übertreffen. Die stabile Verschränkung von 50 Qubits würde eine Rechenkapazität mit sich bringen, die die mächtigsten der aktuell existierenden Supercomputer übertreffen würde.

Es ist davon auszugehen, dass es den Forschern nach und nach gelingen wird, immer mehr Teilchen für immer längere Zeit miteinander zu verschränken – dann wird die Macht des Quantencomputers beeindruckend sein. Trotzdem heißt das nicht automatisch, dass dadurch die Lösung jeder beliebigen Rechenaufgabe einfach eine Milliarde Mal schneller erfolgen kann. Vielmehr werden Quantencomputer vorrangig jene Arten von Problemen lösen, die bisher gar nicht oder nur mit enormen Aufwand gelöst werden können. Für andere Probleme werden weiterhin die Digitalcomputer gebraucht.

Eine gute Erklärung der Funktionsweise eines Quantencomputers bietet das folgende Video:

Warum jetzt? Der aktuelle Entwicklungsstand

Über viele Jahre (oder mittlerweile Jahrzehnte) existierten Quantencomputer hauptsächlich in der Theorie. Im Jahr 2017 wurde jedoch eine Reihe früherer theoretischer Entwürfe tatsächlich umgesetzt. An dieser Stelle muss der bisher bekannteste Quantencomputer erwähnt werden – D-Wave –, der genau genommen kein Quantencomputer ist. In D-Wave-Rechnern wird ein sogenanntes Quantum-Annealing-Verfahren angewendet. Wenngleich sich Quantum-Annealing-Computer und universale Quantencomputer auf die gleichen Konzepte stützen, sind sie für unterschiedliche Aufgaben nützlich; zugleich leiden sie unter verschiedenen Herausforderungen in Design und Herstellung. Die Qubits in D-Waves Rechnern sind nicht stabil genug für präzise Manipulation und Interaktion der Quantenzustände, die Quantencomputern eigentlich zugrunde liegen. Daher funktioniert Quantum Annealing am besten, wenn es Optimierungsprobleme mit vielen möglichen Lösungen gibt und eine, die „gut genug“ ist, gefunden werden soll. Allerdings wird ein darauf basierender Computer nicht in der Lage sein, den Shor-Algorithmus auszuführen, der in der Lage wäre, gängige Formen der modernen Kryptographie zu durchbrechen. Diese Unterscheidung muss bei der Betrachtung der Anzahl der verschränkten Qubits bei D-Wave im Vergleich zu den Gate-basierten (universalen) Quantencomputern, wie z.B. dem von IBM, beachtet werden. Die 2048 Qubits des neusten D-Wave-Rechners bedeuten nämlich nicht, dass dieser um ein Vielfaches mächtiger ist als der 50-Qubits Quantenrechner von IBM. D-Wave versucht mit Quantum-Annealing-Verfahren, bestimmte Vorteile der Quantenmechanik anzuwenden, ohne den großen Aufwand zu betreiben, der für die Entwicklung universaler Quantenrechner notwendig ist.

Ungeachtet dessen handelt es sich bei D-Wave um das erste Unternehmen, das die Quantentechnologie nicht nur in der Forschung, sondern auch zu kommerziellen Zwecken genutzt hat. Bereits im Jahr 2011 verkaufte D-Wave sein Produkt an das Rüstungsunternehmen Lockheed Martin. Anfang 2017 wiederum wurde auf der CeBIT eine Kooperation zwischen D-Wave und Volkswagen angekündigt. Im ersten gemeinsamen Forschungsprojekt sollen die Möglichkeiten der Verkehrsflussoptimierung in der Mega-Metropole Peking identifiziert werden.

Mittlerweile haben auch die Tech-Riesen die Potenziale des Quantum Computing für sich entdeckt –  auch wenn noch keines der Unternehmen einem kommerziellen Erfolg in diesem Bereich besonders nahe gekommen ist. Unternehmen wie Google, IBM, Intel und Microsoft scheuten im vergangenen Jahr keinen Aufwand für Forschung und Entwicklung von nötiger Hard- und Software. Während Google, laut Wired, in seinem Quantum AI Laboratory einen kommerziellen Gate-basierten Quantencomputer in den kommenden fünf Jahren bauen möchte, hat IBM nicht vor, so lange zu warten. Zwölf Organisationen, zu denen Spitzenunternehmen wie JPMorgan Chase, Daimler und Samsung gehören, haben sich als erste Kunden des IBM Q Network angemeldet. Sie erhalten nun sowohl Zugriff auf den vor Kurzem angekündigten 20-Qubit-Computer als auch auf den 50-Qubit-Rechner, sobald dieser die Prototypenphase erfolgreich abgeschlossen hat. Bereits im März 2017 hat IBM eine API und eine SDK zur Verfügung gestellt, die selbst Entwicklern ohne Quantenphysik-Background ermöglichen soll, Schnittstellen zwischen den Quantencomputern und herkömmlichen Computern zu bauen.

Selbstverständlich wollen nicht nur die existierenden Player ein möglichst großes Stück vom Quantum-Computing-Kuchen abbekommen. Auch einige Startups versuchen sich in dieser komplexen und kostenintensiven Technologie. Während bis 2016 nur etwa 70 Mio. US-Dollar in Quantum-Computing-Startups (D-Wave ausgeschlossen) investiert wurden, hat 2017 Rigetti Computing alleine 64 Mio. US-Dollar einsammeln können. Das Unternehmen gilt im Moment als einer der vielversprechendsten Akteure in diesem Bereich. Forscher von Rigetti haben Ende 2017 mit dem Prototyp des 19-Qubits-Chips ein Verfahren des unbeaufsichtigten maschinellen Lernens demonstriert. Trotz kritischer Stimmen, die besagen, Rigettis Algorithmus hätte keinerlei praktische Anwendung, sind viele Experten der Meinung, dass maschinelles Lernen und künstliche Intelligenz mit die wichtigsten Einsatzbereiche für Quantum Computing werden könnten.

 

Künstliche Intelligenz

Wie von uns in der Trendstudie für 2016 – AI Revolution –  vorhergesagt, waren die Jahre 2016 und 2017 von rasanten Entwicklungen und Investitionen im Bereich der künstlichen Intelligenz gekennzeichnet. Quantum Computing könnte diese Entwicklung auf eine ganz neue Ebene bringen.

Warum? Die Menschheit generiert jetzt schon 2,5 Trillionen (1018) Bytes an Daten jeden Tag (ein Äquivalent von 90 Jahren Video in HD-Qualität). Während diese Zahl stetig zunimmt, kommen wir inzwischen an die Grenze der Datenverarbeitungsleistung herkömmlicher Computer. Das Mooresche Gesetz, das die Verdopplung der Anzahl der Transistoren in integrierten Schaltkreisen alle zwei Jahre vorhersagt, hat sich seit der Einführung des Begriffs im Jahr 1965 als bemerkenswert robust erwiesen. Doch aktuell haben diese Transistoren eine Größe erreicht, die aufgrund quantenmechanischer Effekte wie dem Tunneling mit bestehender Technologie nicht weiter unterboten werden kann. Da jedoch die Datenverarbeitung durch Quantencomputer, im Gegensatz zu sequenziell arbeitenden Digitalcomputern, simultan erfolgt, ist es durchaus möglich, dass diese in der Lage sein werden, Berechnungen in einem Bruchteil der Zeit durchzuführen, die heutige Computer benötigen würden. Eine Einsatzmöglichkeit könnte darin bestehen, sehr große, unsortierte Datensätze zu durchsuchen, um Muster oder Anomalien in Sekundenschnelle zu identifizieren. Die existierenden Machine-Learning-Verfahren sind hierzu zwar theoretisch schon heute in der Lage; sie brauchen aber bei großen Datenmengen sehr viel Zeit, da sie die Datensätze sequenziell und nicht simultan betrachten.

Die erste Demonstration von Quantum AI hat ein Team chinesischer Physiker bereits im Jahr 2014 durchgeführt. Ihr Quantencomputer soll handgeschriebene Zeichen erkennen können. Es handelt sich um eine scheinbar simple Unterscheidung der handgeschriebenen Zahl 6 von der Zahl 9. Dieses Problem wird aber mit der Anzahl der Dimensionen und Bilder komplexer, wodurch die Zeit, die zum Errechnen der Lösung auf einem herkömmlichen Computer benötigt wird, dramatisch zunimmt. Ein Quantencomputer kann diese Aufgabe erheblich schneller lösen (in logarithmischer Zeit statt Polynomialzeit).

Während die Beschleunigung der Datenverarbeitung zweifelsfrei ein wichtiger Schritt für die Weiterentwicklung von AI und Machine Learning darstellt, liegt das Potential des Quantum Computing nicht nur in der Berechnungsgeschwindigkeit. Die aktuell spannendste Frage, im folgenden Video von Krysta Svore, Quantum-Computing-Researcherin bei Microsoft, gestellt, lautet: Welche neuen Fragestellungen, über die wir bisher gar nicht nachgedacht haben, können an Quantum Machine Learning oder Quantum AI adressiert werden?

Einige, wie das bereits erwähnte Unternehmen Rigetti, sehen eines der größten Potenziale im unbeaufsichtigten maschinellen Lernen (unsupervised machine learning) – ein Verfahren, bei dem die neuronalen Netze in der Lage sind, Rohdaten ohne Labeling und vorgelagertes Training zu interpretieren. Sie sollen, wie die Menschen, aus Erfahrung lernen und ihre Fehler selbst korrigieren können. Einige Wissenschaftler, wie z.B. der Nobelpreisträger Eugene Wigner, trieben diesen Gedanken noch weiter und stellten in der Hypothese von „quantum mind“ (Quantenverstand) oder „quantum consciousness“ (Quantenbewusstsein) die Frage nach dem Zusammenhang zwischen Quantenmechanik und Bewusstsein. Auch wenn für diesen Zusammenhang bisher keine wissenschaftliche Evidenz existiert, könnte er, sollte er sich als richtig erweisen, nicht nur einen Schritt in Richtung intelligenter Maschinen, sondern auch in Richtung eines maschinellen Bewusstseins bedeuten.

Christopher Monroe, Experimentalphysiker an der University of Maryland, hat dem MIT Technology Review gesagt, es sei noch zu früh, zu sagen, ob und inwiefern Quantencomputer die künstliche Intelligenz verändern werden. „Wir verstehen nicht wirklich, wie und warum das klassische maschinelle Lernen funktioniert, und so scheint es, dass die Anwendung auf Quantencomputer ein bereits sehr diffuses Feld noch unklarer machen könnte“.

Blockchain und Kryptowährungen

Ein weiterer technologischer Megatrend, der durch die fortschreitende Entwicklung von Quantencomputern nachhaltig beeinflusst werden kann, sind die Blockchain und Kryptowährungen sowie andere Einsatzbereiche der Kryptographie. Während sowohl das RSA-Kryptoverfahren als auch Hashing theoretisch mit den aktuell existierenden Digitalcomputern “geknackt” werden können, macht die immense Zeit, die dafür erforderlich ist, dieses Vorhaben teuer und unpraktisch. Ein aktueller Bericht des Global Risk Institute prognostiziert, dass infolge der Entwicklung von Quantencomputern die meisten der jetzt existierenden Kryptographiemethoden mit einer Wahrscheinlichkeit von 50% bis 2031 nutzlos sein werden. Somit wäre auch die Sicherheit von Bitcoin und anderen Kryptowährungen bedroht. Ein bösartiger Besitzer eines Quantenrechners könnte ihn zum Beispiel zum Bitcoin-Mining verwenden. Sollte er es schaffen, mehr als 50% der gesamten Rechenleistung der Blockchain zu erreichen, würde er die Kontrolle über das gesamte Ledger gewinnen, was ihm wiederum die Möglichkeit eröffnen würde, Transaktionen zu fälschen und Coins zu stehlen.

Aus diesem Grund wird schon seit einer Weile an neuen kryptographischen Verfahren gearbeitet, die sogar den Quantenmaschinen die Stirn bieten können. Im August 2015 begann die NSA mit der Einführung einer Liste quantenresistenter Kryptographieverfahren, die den Quantencomputern widerstehen würden.  Als ein vielversprechendes Verschlüsselungsverfahren gilt die Quantenschlüsselverteilung. Der wesentliche Unterschied im Vergleich zur klassischen Schlüsselverteilung liegt darin, dass zum Versand der Informationen Quantenteilchen wie Photone verwendet werden, die nicht von einem Unbefugten kopiert werden können, ohne sie zu zerstören.

Diese Methode wurde vor kurzem im russischen Quantenzentrum in Moskau auch für die Verschlüsselung von Blockchain-Technologie getestet. 

Finanzen

Nicht nur auf Kryptowährungen, sondern auch auf Finanzmärkte insgesamt werden die Entwicklungen im Bereich Quantum Computing einen nicht unwesentlichen Einfluss haben. Der eine Aspekt ist dabei selbstverständlich die Datensicherheit, die bei der Anwendung gegenwärtiger Verschlüsselungstechnologien dem potenziellen Angriff durch Quantencomputer nicht standhalten würde. Daher sind die Banken Vorreiter im Bereich der Quantenkryptographie – einige Institute, vor allem schweizerische, sollen bereits Verfahren wie die Quantenschlüsselverteilung oder vergleichbare anwenden. Ein bereits 2001 in der Schweiz gegründetes Unternehmen, id Quantique, bietet jetzt schon Leistungen im Bereich der Quantenkryptographie für Banken und Finanzinstitutionen an.

Der Sicherheitsaspekt ist allerdings nur eines der möglichen Disruptionsfelder des Quantum Computings im Bereich der Finanzen. Moderne Finanzmärkte sind zu immer komplexeren Systemen geworden, die unter anderem deswegen schwer begreifbar und vorhersehbar sind, weil es unmöglich ist, sie durch Experimente in kontrollierter Umgebung zu erforschen. Quantum Computing könnte eine Möglichkeit der Lösung dieses Problems bieten. Ein unmittelbarer Vorteil besteht darin, dass die den Quantencomputern innewohnende Zufälligkeit mit der stochastischen Natur der Finanzmärkte übereinstimmt. Was für die Digitalrechner immer noch ein Ding der Unmöglichkeit ist – die Verteilung der Ergebnisse unter einer extrem großen Anzahl zufällig generierter Szenarien zu bewerten – sollen nun die Quantencomputer ermöglichen.

Ein anderer Bereich, in dem die Quantenrechner zum Einsatz kommen können, sind Finanzoperationen wie die Arbitrage, bei der viele pfadabhängige Schritte erforderlich sind, die die Kapazität eines digitalen Computers schnell übersteigen können.

Automotive & Traffic Control

Ein ähnliches Problem wie die Steuerung und Vorhersage der Finanzmärkte stellt auch die Steuerung und Vorhersage des Verkehrs dar. Da sich Verkehrsmuster ständig verändern, besteht die Herausforderung darin, Fahrzeugströme in Echtzeit zu erfassen, zu analysieren und zu optimieren. Dieser Herausforderung hat sich 2017 Volkswagen durch die auf der CeBIT angekündigten Kooperation mit D-Wave angenommen.

Erstes Testfeld wurde die Verkehrsflussoptimierung in Peking. Volkswagens Experten für künstliche Intelligenz haben einen Algorithmus entwickelt, der die Fahrzeit aller öffentlichen Taxis der Stadt optimieren soll. Die Komplexität dieser Aufgabe und damit der Rechenaufwand wachsen, ähnlich wie im bereits beschriebenen Beispiel der Finanzmärkte, mit der Anzahl der Faktoren exponentiell, so dass herkömmliche Rechner an ihre Grenzen stoßen. Das Quantum-Annealing-Verfahren von D-Wave soll diese komplexe Berechnung meistern. Der D-Wave-Computer konnte in wenigen Sekunden die Informationen verarbeiten, für die ein konventioneller Supercomputer 30 Minuten benötigen würde, sagte Florian Neukart, Wissenschaftler in einem Volkswagen-Lab in San Francisco der New York Times.

In der zweiten Hälfte des Jahres 2017 hat VW weitere Schritte im Bereich des Quantum Computing angekündigt. In Kooperation mit Google soll der Einsatz dieser Technologie bei der Weiterentwicklung der Verkehrsoptimierung, der Materialsimulation von leistungsstarken E-Fahrzeug-Batterien und neuen Werkstoffen und für neue Machine-Learning-Verfahren erforscht werden.

Medizin

Ein weiteres vielversprechendes Einsatzfeld des Quantum Computing, auf dem ebenfalls bereits erste Experimente durchgeführt worden sind, ist die Medizin. Dank der besonderen Fähigkeit der Quantenrechner, komplexe Simulationen durchzuführen, ist von ihrer zukünftigen Anwendung bei der Medikamentenentwicklung auszugehen.

Um ein wirksames Medikament zu entwickeln, müssen Wechselwirkungen zwischen Molekülen, Proteinen und chemischen Wirkstoffen bewertet werden. Aufgrund der enormen Anzahl der zu analysierenden Kombinationen, ist dies sehr zeit- und arbeitsintensiv. Da ein Quantencomputer einen simultanen Ablauf dieses Vorgangs ermöglichen würde, könnte er diesen Prozess deutlich effizienter und somit günstiger machen. Dies würde auch neue Möglichkeiten für den Fortschritt der personalisierten Medizin eröffnen. Indem Quantencomputer die Funktion jedes Proteins im menschlichen Genom analysieren und ihre Interaktionen mit allen möglichen komplexen Molekülen sehr schnell modellieren, könnte die personalisierte Medizin endlich Realität werden.

Nicht nur bei der Entwicklung neuer Medikamente, sondern auch bei der Anwendung bereits existierender Therapien könnten die besonderen Eigenschaften der Quantenrechner enorme Vorteile bieten. Bereits im Jahr 2015 hat D-Wave eine erste Studie im Bereich der Strahlentherapie in Zusammenarbeit mit dem Roswell Park Cancer Institute, einer medizinischen Forschungseinrichtung in Buffalo, durchgeführt. Die Komplexität bei der Strahlentherapie besteht darin, mehrere Variablen wie die Dosierung, die Intensität und den genauen Zielpunkt der Bestrahlung so einzustellen, dass die Krebszellen zerstört und gleichzeitig die Nebenwirkungen für den Patienten möglichst gering gehalten werden. Während komplexe Software bereits für die Berechnung der Dosierung verwendet wird, scheitert sie noch an der Limitierung der aktuell verfügbaren Rechenkapazität. Da die Quantencomputer auf die simultane Bewältigung einer Vielzahl von Parametern ausgerichtet sind, sollten sie in der Lage sein, die bestmögliche Behandlung für einen bestimmten Patienten nicht nur schneller, sondern auch präziser zu erarbeiten.

Auch im Bereich der Diagnostik ist der Einsatz sehr gut vorstellbar. Bereits jetzt sorgen die Möglichkeiten der künstlichen Intelligenz und des maschinellen Lernens für Fortschritte in diesem Bereich, die wir in dem Trend 2017 “Humanising Healthcare through Technology” beschrieben haben. Viele der bereits eingesetzten Algorithmen sind auf Mustererkennung spezialisiert. Algorithmen werten große Datensätze von Patienteninformationen aus, um Signale im Rauschen zu erkennen, die zu einer richtigen Diagnose führen. Mit der Rechenkapazität eines Quantencomputers können diese Algorithmen die Informationen viel effektiver verarbeiten: Sie können nicht nur viel mehr Datensätze parallel auswerten, sondern auch simultan alle möglichen Kombinationen dieser Daten betrachten.

Fazit

Der Einsatz des Quantum Computing in den beschriebenen Bereichen ist wahrscheinlich, doch diese Liste ist keinesfalls erschöpfend: Wetter- und Klimavorhersagen, die Logistik, Luftfahrt und Chemie sind nur einige der möglichen Einsatzfelder, die in dieser Studie nicht behandelt wurden. Diverse Investoren versuchen nun, zu einem Teil des Quantum-Ökosystems zu werden – und das gilt nicht nur für die klassischen Tech-Player: Banken, die Automobilindustrie, die Luft- und Raumfahrtbranche sowie Cybersicherheitsunternehmen setzen auf diese Technologie.

Das Spannende an Quantencomputern ist aktuell die Tatsache, dass wir im Moment nur darüber spekulieren können, wie genau sie eingesetzt werden können, welche Vorteile sie mit sich bringen und wann tatsächlich ihr Durchbruch erfolgt. Wir gehen davon aus, dass die Zugänglichkeit der Quantencomputer über die Cloud, die von Rigetti, IBM und Google forciert wird, ein entscheidender Schritt für die Weitererforschung der Technologie sein wird. Wenn Ingenieure und Programmierer beginnen, auf diesen Systemen zu experimentieren, werden mehr und mehr tatsächliche Anwendungen entstehen. Wie bei allen neuen Technologien, so gilt auch für das Quantum Computing, dass es unter diesen Anwendungen viele geben wird, die wir uns aktuell noch gar nicht vorstellen können.

Mehr Trends

Leaps into SportTech

Trends 2018: Leaps into the World of SportTech

Höher, weiter, schneller, besser – das gilt nicht nur für die Fußball-Weltmeisterschaft in diesem Jahr. Schon immer haben Sportler sowohl mit erlaubten, als auch unerlaubten Mitteln versucht, ihre Leistung zu steigern und der Konkurrenz einen Schritt voraus zu sein. Dank der allgegenwärtigen Sensoren und der nie dagewesenen Möglichkeiten von Datenerfassung, Datenanalysen und Virtual Reality-Technologien haben Profisportler, Trainer, aber auch Hobbysportler neue Lösungen an die Hand bekommen, um ganz gezielt einzelne Aspekte zu trainieren und die Fortschritte unmittelbar nachzuverfolgen.

Trends 2018: Blockchain – The Saviour of Democracy?

Zunächst mit Bitcoin 2008 als Digitalwährung gestartet, hat sich binnen weniger Jahre die Erkenntnis durchgesetzt, dass die dem Bitcoin zugrundeliegende Idee der Blockchain unabhängig vom Erfolg des Bitcoin selber weit mehr Potenzial hat, als nur die Finanzbranche umzukrempeln. Die Natur einer fälschungssicheren dezentralen Datenbank, die die Blockchain vereinfacht gesprochen ist, ermöglicht vertrauensvolle Transaktionen zwischen Unbekannten, für die bislang immer ein Intermediär erforderlich war.

Somit stehen auf Basis der Blockchain sämtliche Branchen vor einer grundlegenden Umstrukturierung, die bislang Intermediäre für ihr Funktionieren benötigen: von Banken über Versicherungen und Wirtschaftsprüfern, Rechtehändlern und –verwertern, Anwaltskanzleien und Notaren, Energiehändlern und –erzeugern bis hin zu Grundbuchämtern und sämtlichen staatlichen Funktionen, die Prüf- und Bewilligungsprozesse enthalten. Über die Blockchain können diese Funktionen fälschungssicher und anonym durch alle Beteiligten ausgeführt werden, wodurch bislang starre Machtstrukturen demokratisiert werden können.

Die in Aussicht stehenden Effizienzsteigerungen und damit drastischen Kostenreduktionen durch Blockchain-basierte Prozesse haben eine branchenübergreifende Entwicklungs- und Investitionsdynamik in Gang gesetzt, die den flächendeckenden Einsatz bereits mittelfristig sehr wahrscheinlich macht. So taucht die Blockchain auch ganze sieben Mal mit dem Versprechen einer umfassenden Blockchain-Strategie im Koalitionsvertrag der aktuellen Bundesregierung auf. Im Folgenden sollen die Potenziale der Blockchain für die Demokratisierung und die Belebung des demokratischen Prozesses beleuchtet werden.

Die Studie wurde unterstützt durch das Hertie Network on Digitalization im Rahmen von fellows & friends der Gemeinnützigen Hertie-Stiftung

Trends 2018: Logistics – the Age of Enlightenment

Wie die meisten Industrien sieht sich auch die Logistikbranche mit einem tiefgreifenden Wandel konfrontiert. Im Zeitalter kostenloser Same-Day-Delivery hat sich die Erwartungshaltung nicht nur im B2C-Umfeld grundlegend verändert. Diese lässt sich nur durch den innovativen Einsatz einer Vielzahl neuer Technologien realisieren. Konsequenz sind nicht nur eine enorme Steigerung der Effizienz und der Transparenz, sondern ganz neue Formen der Kollaboration und eine noch nicht absehbare Umwälzung etablierter Geschäftsmodelle. Dies öffnet neuen Wettbewerbern wie Startups und bisherigen Kunden der Logistiker Tür und Tor, die nicht von technologischen Erbschaften ausgebremst werden.

Trends 2018: Farming – The Rise of AgTech

Landwirtschaft – dieser Begriff erzeugt romantische Bilder vom beschaulichen Leben auf dem Dorf in unseren Köpfen. Doch die Branche ist stark technologisiert. Bereits in den 80er Jahren begannen Landwirte mit der Digitalisierung ihrer Produktionsstätten. Zunächst stand die Ertrags- bzw. Gewinnmaximierung dabei im Fokus. Im Zuge des fortschreitenden Klimawandels und eines starken Zuwachses der Weltbevölkerung gewinnt die Frage nach der Nachhaltigkeit aber zunehmend an Gewicht. Das Thema ist im Jahr 2018 hoch emotional – Menschen jeder Altersgruppe hinterfragen zunehmend die Umstände der Produktion und haben ein starkes Interesse an ökologisch und auch moralisch vertretbaren Methoden bei der Lebensmittelherstellung.

Bekannte Investoren und Visionäre wie Kimbal Musk – der jüngere Bruder von Tesla-Gründer Elon Musk – haben diesen Trend erkannt. Sie investieren in Technologie, welche dem veränderten Konsumentenverhalten gerecht wird. So bekommt der Begriff der “Regionalität” eine völlig neue Bedeutung, wenn das Gemüse exakt Null Kilometer Transportweg hinter sich hat, bevor es auf unseren Tellern landet. In Berlin im Jahr 2018 bereits Realität – die Produkte werden durch Vertical Farming Module des Berliner Startups InFarm direkt im Supermarkt oder Restaurant angezogen und geerntet. Aber auch die traditionelle Landwirtschaft auf dem Acker geht mit der Zeit. Auf der AgriTechnica, der Weltleitmesse der Landtechnik, wurden Ende 2017 die zukunftsweisensten Innovationen ausgezeichnet. Darunter Roboterschwärme die Feldarbeiten verrichten, ein Augmented-Reality-System zur Fernunterstützung von Servicetechnikern und intelligente Drohnen zur Automatisierung der Begutachtung von Wildschäden.

Kann Technologie der Schlüssel zur Ernährungssicherung sein und gleichzeitig einen Beitrag zum Umweltschutz leisten? Unsere Studie skizziert die Kulturgeschichte der Digitalisierung in der Landwirtschaft, gibt einen Überblick zum Status quo und zeigt das disruptive Potenzial von neuen Technologien für die bisherige Lebensmittel-Lieferkette auf.

Trends 2018: More Real Than Real – Mixed Reality

Augmented Reality ist in der Lage, die physische Welt, die wir tagtäglich um uns erleben, mit der Welt der Daten, die wir sonst nur über 2-D Bildschirme erfahren können, zu verbinden.

Nicht ohne Grund hat Mixed Reality daher das Potenzial, zu einem Game Changer der Digitalisierung zu werden. Apples CEO Tim Cook ging sogar soweit zu sagen “Augmented Reality is going to change everything”.

Übersicht