Home / News / IBM will Unsichtbares sichtbar machen: 5 Technologien, die das Leben bis 2022 beeinflussen

IBM will Unsichtbares sichtbar machen: 5 Technologien, die das Leben bis 2022 beeinflussen

5in5_1

Foto: IBM

IBM veröffentlichte ihre traditionellen “5 in 5” an – eine Liste wissenschaftlicher Innovationen mit dem Potential, unser Leben in den nächsten fünf Jahren nachhaltig zu verändern. Sie basieren auf Ergebnissen von Marktanalysen, gesellschaftlichen Trends sowie Projekten aus den IBM-Forschungszentren rund um den Globus.

Die Innovationen:

  1. Künstliche Intelligenz gibt Einblick in unsere mentale Gesundheit
  2. Neuartige Sehhilfen in Kombination mit künstlicher Intelligenz verschaffen die Sehfähigkeiten von Comic-Helden
  3. Makroskopie hilft, globale Zusammenhänge durch die unendliche Fülle ihrer Details besser zu verstehen
  4. Chips werden zu medizinischen Laboren und finden Auslöser für Krankheiten auf der Nanoebene
  5. Intelligente Sensoren entdecken Umweltverschmutzung in Echtzeit

„Die wissenschaftliche Gemeinde hat schon immer Apparate entwickelt, mit deren Hilfe wir die Welt mit völlig neuen Augen sehen. So macht das Mikroskop für uns winzige Dinge sichtbar, das Thermometer hilft uns bei der Messung von Temperaturen“, so Dario Gil, Vice President of Science & Solutions bei IBM Research. „Auf Basis der Fortschritte im Bereich Künstliche Intelligenz und Nanotechnologie wollen wir nun eine neue Generation von Instrumenten entwickeln, die uns hilft, die komplexen, unsichtbaren Zusammenhänge in unserer heutigen Welt in den nächsten fünf Jahren besser zu verstehen.“

Ein weltweites Team von IBM Wissenschaftlern arbeite ständig daran, solche Erfindungen aus den Forschungszentren fit für die alltägliche Verwendung zu machen. Die folgenden fünf wissenschaftlichen Innovationen sollen in den nächsten fünf Jahren das Unsichtbare sichtbar machen.

1. Künstliche Intelligenz gibt Einblick in mentale Gesundheit

Einer von fünf Erwachsenen in den USA leidet heute unter neurologischen oder mentalen Beeinträchtigungen wie Huntington, Alzheimer, Parkinson, Depressionen oder Psychosen – aber nur etwa die Hälfte der Betroffenen ist in Behandlung. Die Kosten für die Therapien derartiger Erkrankungen übersteigen weltweit diejenigen für Diabetes, Atemerkrankungen und Krebs: Allein in den USA entstehen Kosten von mehr als einer Billion US-Dollar jährlich.

Viele Abläufe im Gehirn sind trotz der Erfolge in der Forschung nach wie vor ein Geheimnis. Ein Schlüssel für ein besseres Verständnis der komplexen Zusammenhänge ist die Sprache. In den nächsten fünf Jahren sollen kognitive Systeme in der Lage sein, aus der Art und Weise, wie wir sprechen und formulieren wichtige Rückschlüsse auf die mentale und physische Verfassung zu ziehen.

IBM-Experten kombinieren beispielsweise im Rahmen eines Projekts Abschriften und Tonaufnahmen aus Patientengesprächen mit Maschinellem Lernen, um so in den Unterlagen Sprachmuster aufzudecken, die zukünftig dabei helfen sollen, Psychosen, Schizophrenie, manisches Verhalten oder Depression präzise vorherzusagen. Momentan benötigt das kognitive System, das diese Daten verarbeitet nur noch 300 Wörter, um eine entsprechende Vorhersage zu treffen.

In Zukunft hoffen die Forscher, dass ähnliche Techniken auch für die oben genannten Krankheitsbilder oder auch posttraumatische Belastungsstörungen und sogar bei Autismus und Aufmerksamkeitsdefizitstörungen angewendet werden können. Dafür analysieren kognitive Systeme Sprache, Aussagen, Syntax und Intonation der Betroffenen. Kombiniert mit tragbaren Geräten und bildgebenden Verfahren wie der Elektroenzephalografie (EEG), eine Methode zur Messung der elektrischen Aktivität des Gehirns durch Aufzeichnung der Spannungsschwankungen an der Kopfoberfläche, soll ein umfassendes Bild der Person entstehen und Psychologen und Mediziner bei der Diagnose und der zukünftigen Behandlungen unterstützen.

Was früher unsichtbare Anzeichen waren, werden also in Zukunft erkennbare Indikatoren dafür werden, ob bei einem Patienten der Ausbruch der Krankheit oder die Verschlechterung seines Zustands unmittelbar bevorsteht, die Behandlung anschlägt oder angepasst werden muss. Werden zusätzlich mobile Geräte eingesetzt, könnten der Patient oder seine Angehörigen bereits zu Hause entsprechende Untersuchungen selbst machen und so die Arzttermine vorzubereiten.

2. Sehhilfen in Kombination mit künstlicher Intelligenz erweitern die Sehfähigkeiten

5in5_2

Foto: IBM

Das menschliche Auge kann mehr als 99,9 % des elektromagnetischen Spektrums nicht sehen. In den letzten 100 Jahren hat die Wissenschaft jedoch entsprechende Geräte entwickelt, die mit Hilfe von Strahlen und ihrer Energie auf unterschiedlichen Wellenlängen Dinge sichtbar machen – Beispiele dafür sind das Radar oder Röntgenaufnahmen. Obwohl oft schon seit Jahrzehnten in Gebrauch, sind die Geräte nach wie vor nur von Spezialisten zu bedienen und teuer in Unterhalt und Anschaffung.

In fünf Jahren sollen es entsprechende Sehhilfen in Kombination mit KI erlauben, größere Bandbreiten des elektromagnetischen Spektrums zu sehen, um wertvolle Einblicke in Dinge zu bekommen. Diese Hilfen solen tragbar, bezahlbar und überall verfügbar sein.

Ein momentan viel diskutiertes und getestetes Anwendungsszenario sind selbstfahrende Autos. Mit Hilfe von kognitiven Systemen können plötzlich auftretende Hindernisse oder sich verschlechternde Wetterbedingungen besser und schneller als heute möglich analysiert werden, um das Fahrzeug sicher an seinen Zielort zu navigieren.

Einen Schritt weitergedacht: Was, wenn Technologien dieser Art zukünftig in unsere Smartphones verbaut werden und dabei helfen können, den Nährstoffgehalt eines Nahrungsmittels oder seine Haltbarkeit anzuzeigen? Oder die Echtheit eines Arzneimittels zu bestimmen?  IBM-Wissenschaftlicher arbeiten an einer entsprechenden kompakten Technologieplattform, die Sehfähigkeiten deutlich erweitern soll.

Mit Makroskopie globale Zusammenhänge besser verstehen

5in5_3

Foto: IBM

Die Zusammenhänge und die Komplexität der unmittelbaren Umgebung bleiben in den allermeisten Fällen verborgen. Mit dem Internet der Dinge und seiner bereits mehr als sechs Milliarden verbundenen Geräte soll sich das nachhaltig ändern: Kühlschränke und Glühbirnen, Drohnen, Kameras, Wetterstationen, Satelliten oder Teleskope liefern jeden Monat Exabytes an zusätzlichen, bisher nur wenig genutzten Daten. Nach der Digitalisierung von Informationen, Transaktionen und sozialen Interaktionen sei es jetzt an der Zeit, die Abläufe der physischen Welt zu digitalisieren.

In den nächsten fünf Jahren sollen Machine Learning-Algorithmen und Software dabei helfen, diese Informationen aus der physischen Welt zu organisieren und zu verstehen. Im Gegensatz zu einem Mikroskop oder einem Teleskop sind Systeme, die für diesen Makroskopie-Ansatz entwickelt werden,  darauf ausgerichtet, Wechselwirkungen von Dingen zu analysieren, die mit bloßem Auge erkennbar, aber nicht einfach in einen Zusammenhang gebracht werden können.

Beispiel Landwirtschaft: Durch das Sammeln, Organisieren und Analysieren von Daten zu Klima, Bodenbeschaffenheit, Grundwasserspiegel und Anbaumethoden sollen zukünftig Bauern auf Basis entsprechender Daten ihr Saatgut auswählen, den richtigen Standort für Felder bestimmen und den Ertrag optimieren – ohne dabei beispielsweise kostbare Grundwasserreserven unnötig auszubeuten.

2012 begann IBM Research ein Projekt mit dem US-amerikanischen Winzer Gallo, in dessen Verlauf Bewässerungsmethoden, Bodenbeschaffenheit, Wetterdaten von Satelliten und andere Details ausgewertet wurden, um die beste Bewässerung für optimale Ausbeute und Qualität für dessen Böden sicherzustellen. In der Zukunft sollen solche Makroskopie-Ansätze überall eingesetzt werden können – beispielsweise in der Astronomie, um dort anfallende Daten über Asteroiden auszuwerten, ihre Materialzusammensetzungen exakter zu ermitteln und Kollisionskurse vorherzusagen.

Chips werden zu medizinischen Laboren und finden Auslöser für Krankheiten auf der Nanoebene

5in5_4

Foto: IBM

Früherkennung von Krankheiten ist entscheidend für deren Behandlung. Allerdings gibt es auch Krankheiten wie das oben erwähnte Parkinson-Syndrom oder Krebs, die nur schwer frühzeitig zu diagnostizieren sind. Eine Möglichkeit der Früherkennung sind Biopartikel in Körperflüssigkeiten wie Speichel, Tränen, Blut, Urin oder Schweiß. Da diese Partikel aber oft 1000-mal kleiner sind als der Durchmesser eines menschlichen Haars, sind sie extrem schwer nachzuweisen.

In den nächsten fünf Jahren sollen Chips zu winzigen medizinischen Laboren werden, die Körperflüssigkeiten scannen und rechtzeitig wissen lassen, ob es Zeit für einen Arzttermin ist. Das Ziel der Forschungen ist es, die notwendigen Untersuchungen, für die bisher eine voll ausgestattete Laborumgebung gebraucht wurde, auf einem einzigen Chip zu bündeln. Das ermögliche den Nutzern in Zukunft, schnell und regelmäßig Biomarker auszulesen und diese Informationen bequem von zu Hause in die Cloud zu geben. Dort könnten sie mit weiteren Daten von beispielsweise Schlafmonitoren oder Smart Watches verknüpft werden und von einem kognitiven System analysiert werden. Die Kombination aus verschiedenen Datensätzen ergebe einen umfassenden Einblick in den Gesundheitszustand und könne problematische Indikatoren frühzeitig identifizieren.

Wissenschaftler von IBM Research arbeiten bereits an einer „Lab-on-a-chip“-Nanotechnologie, die Biopartikel mit einem Durchmesser von lediglich 20 Nanometern und damit in der Größenordnung unserer DNA, von Viren oder Exosomen trennen und isolieren könne.

Intelligente Sensoren entdecken Umweltverschmutzung in Echtzeit

5in5_5

Foto: IBM

Die meisten Schadstoffe sind für das menschliche Auge unsichtbar – bis ihre Auswirkungen nicht mehr zu ignorieren sind. Methan beispielsweise ist eine Komponente von Erdgas, einer eigentlich sauberen Energiequelle. Wenn Methan allerdings in die Luft gelangt, bevor es verbrannt wird, trägt es neben Kohlendioxid entscheidend zur Erderwärmung bei.

In den Vereinigten Staaten entsteht Methan vor allem bei Verarbeitungsvorgängen in der Öl- und Gasindustrie. Die amerikanische Umweltbehörde EPA schätzt, dass allein aus natürlichen Methanquellen 2014 mehr als neun Millionen Tonnen Methan ausgetreten sind. Das entspricht der Menge von Treibhausgasen, die in den letzten 100 Jahren von den der amerikanischen Eisen- und Stahl-, Zement- und Aluminium-Branchen zusammengenommen produziert wurden.

In fünf Jahren sollen neue, preiswerte Sensortechnologien verfügbar sein, die an den Gasquellen, Tanks und Pipelines angebracht werden und dafür sorgen, dass die Industrie bisher schwer zu findende Lecks in Echtzeit entdeckt werden. Netzwerke aus Sensoren des Internets der Dinge sollen in der Cloud miteinander verbunden sein und die weit verstreuten Quellen und die Förder-Infrastruktur überwachen, um innerhalb von Minuten  – statt wie bisher nach Wochen – ein Leck zu entdecken.

IBM-Forscher arbeiten bereits mit Gasunternehmen wie Southwestern Energy aus Texas zusammen, um im Rahmen des ARPA-E Methane Observation Networks with Innovative Technology to Obtain Reductions (MONITOR) program ein entsprechendes, intelligentes Methan-Überwachungssystem zu entwickeln.

Die Forscher nutzen dazu Silicon Photonics – eine Technologie, bei der Daten zwischen Computerchips durch Licht übertragen werden. Der Vorteil: Licht kann in kürzerer Zeit weitaus mehr Daten übertragen als elektrische Leiter. Diese Chips könnten in Netzwerksensoren direkt vor Ort, an anderen Stellen der Überwachungskette oder auch in Drohnen integriert werden. So könne aus Echtzeitdaten ein komplexes Umweltmodell entwickelt werden, das den Ursprung und die Menge der Schadstoffe in dem Moment bestimmt, in dem sie auftreten.

 

Share

Leave a Reply

Your email address will not be published. Required fields are marked *

*