IBM kündigt die Entwicklung der bislang leistungsstärksten universellen Quantenprozessoren des Unternehmens an. Einer der beiden Prototypen soll den Kern der ersten kommerziellen IBM Q Systeme bilden, die in naher Zukunft einigen frühen Nutzern zur Verfügung gestellt werden sollen. Bereits durchgeführte Quanten-Experimente seien erfolgreich verlaufen.
Im März dieses Jahres kündigte IBM bereits die industrieweit erste Initiative zur Bereitstellung eines universell verfügbaren Quantencomputers IBM Q für kommerzielle und wissenschaftliche Anwendungen an. IBM Q Systeme und Services sollen über die IBM Cloud-Plattform zur Verfügung gestellt werden. Das Unternehmen bietet der Öffentlichkeit bereits seit einem Jahr Zugriff auf Quantenprozessoren und entsprechende Schulungsunterlagen an und will so dem Thema einen größeren Raum nicht nur im akademischen Umfeld, sondern auch allen Interessierten bieten. Bis heute wurden mehr als 300.000 Quanten-Experimente mit Hilfe dieses Angebots durchgeführt.
Kostenloser Zugriff
Mit der Ankündigung der neuen IBM Q-Prozessoren will das Unternehmen die Grundlage für die Lösung von Problemen im wirtschaftlichen wie wissenschaftlichen Kontext schaffen, die selbst mit klassischen Supercomputern nicht zu bewältigen sind.
Details der beiden Prozessoren:
- Ein 16-Qubit Prozessor, der weitaus komplexere Experimente ermöglicht als der bisher verfügbare 5-Qubit Prozessor. Entwickler, Programmierer und Forscher können den kostenlosen Zugriff auf die Installation nutzen, um Quanten-Algorithmen auszutesten und Experimente durchzuführen. Zusätzlich werden Lernmaterialien und Simulationen zur Verfügung gestellt. Ein Beta-Zugang ist seit heute über das neue Software Development Kit auf GitHub offen.
- Der erste Prototyp eines kommerziellen Prozessors mit 17 Qubits stelle den bis heute leistungsfähigsten IBM Quantenprozessor dar. Dank Verbesserungen beim Material und der Architektur sei er mindestens zweimal so schnell wie die heute über die IBM-Cloud zugreifbaren Prozessoren. Er soll den Kern der ersten kommerziell verfügbaren IBM Q Systeme bilden.
„Die angekündigten Verbesserungen erlauben es IBM, zukünftig Prozessoren zu bauen, die aus 50 oder mehr Qubits bestehen und damit die Leistung heutiger Computersysteme übersteigen“, sagt Arvind Krishna, Senior Vice President and Director of IBM Research and Hybrid Cloud. “Diese Entwicklungen unserer über die IBM- Cloud verfügbaren Quantensysteme erlauben es uns, über ganz neue Anwendungsgebiete nachzudenken und Gebiete zu erforschen, die mit klassischen Computers alleine unerreichbar sind.“
Neue Metrik beim Quantum Volume
Die Leistungsfähigkeit von Quantenprozessoren zur Lösung von ganz praktischen Problemen hänge aber von weitaus mehr ab als der reinen Zahl ihrer Qubits. Aufgrund der fragilen Natur von Quanteninformationen brauche es für eine Leistungsverbesserung solcher Systeme auch Qualitätsverbesserungen bei den einzelnen Qubits sowie ihrer Interaktion untereinander bei gleichzeitiger Minimierung der auftretenden Quantenfehler. IBM habe eine neue Metrik übernommen, die die Leistungsfähigkeit von Quantensystemen charakterisiere – das so genannte Quantum Volume. Quantum Volume stehe für die Anzahl und Qualität der Qubits, ihrer Leiterverbindungen sowie den Fehlerraten im Rahmen Quantenzustandsmessungen.
Der IBM-Prototyp biete deutliche Verbesserungen beim Quantum Volume. In den nächsten Jahren plant IBM, diese Technologie massiv voranzutreiben und das Quantum Volume zukünftiger Systeme weiter zu verbessern – bis hin zu den 50 Qubit-Prozessoren. Experten finden weitere Details in diesem Fachartikel
Während die Technologien, die klassische Computer und ihre Anwendungen wie Watson dabei helfen, Muster und Zusammenhänge in großen vorhandenen Datenmengen zu erkennen, sollen Quantencomputer helfen, Problemlösungen zu finden, bei denen Muster nicht erkannt werden könnten, weil nicht genügend Datenmaterial vorhanden und damit viel zu viele Lösungsansätze denkbar wären, um sie mit heutigen Rechnern zu bewältigen.
Zukünftige Anwendungen von Quantencomputern könnten sein:
- Prozessoptimierungen in Supply Chains und Logistik. Neue Ansätze bei Finanzmodellen und Risikoanalysen.
- Materialwissenschaften und Chemie durch die Entdeckung von bisher ungeklärten oder gänzlich unbekannten chemischen Verbindungen für neue Materialien und die Pharmaforschung.
- Künstliche Intelligenz durch Verbesserung einzelnen Komponente wie Machine Learning
- Sicherheit in Cloud-Umgebungen durch verstärkten Schutz von privaten Daten durch quantenbasierte Verschlüsselungen.