Home / Allgemein / Künstliche Intelligenz erklärbar machen: Forscher blicken in Neuronale Netze

Künstliche Intelligenz erklärbar machen: Forscher blicken in Neuronale Netze

Fortschritte im Bereich der KI beruhen vor allem auf der Verwendung Neuronaler Netze. Vergleichbar mit der Funktionsweise des menschlichen Gehirns verknüpfen sie mathematisch definierte Einheiten miteinander. Doch bisher wusste man nicht, wie ein Neuronales Netz Entscheidungen trifft. Forschende des Fraunhofer Heinrich-Hertz-Instituts HHI und der Technischen Universität Berlin haben nun eine Technik entwickelt, die erkennt, anhand welcher Kriterien KI-Systeme Entscheidungen fällen. Die neuartige Methode Spectral Relevance Analysis (SpRAy), basierend auf der Technik Layer-Wise Relevance Propagation, erlaubt den Blick in die „Black Box“.

Layer-wise Relevance Propagation ermöglicht den Blick in die „Black Box“. © Fraunhofer HHI

Viele Unternehmen nutzen lernende und vernetzte KI-Systeme, etwa um präzise Nachfrageprognosen anzustellen und das Kundenverhalten exakt vorherzusagen. Auf diese Weise lassen sich beispielsweise Logistikprozesse regional anpassen.

Auch im Gesundheitswesen bedient man sich spezifischer KI-Tätigkeiten wie dem Anfertigen von Prognosen auf Basis von strukturierten Daten. Hier betrifft das etwa die Bilderkennung: So werden Röntgenbilder als Input in ein KI-System gegeben, der Output ist eine Diagnose. Das Erfassen von Bildinhalten ist auch beim autonomen Fahren entscheidend, wo Verkehrszeichen, Bäume, Fußgänger und Radfahrer fehlerfrei erkannt werden müssen.

Und genau hier liegt die Crux: In sensiblen Anwendungsfeldern wie der medizinischen Diagnostik oder in sicherheitskritischen Bereichen müssen KI-Systeme absolut zuverlässige Problemlösungsstrategien liefern. Bislang war es jedoch nicht nachvollziehbar, wie KI-Systeme Entscheidungen treffen. Zudem basieren die Vorhersagen auf der Qualität der Input-Daten. Die Layer-Wise Relevance Propagation (LRP) soll KI-Prognosen erklärbar machen und somit unsichere Problemlösungsstrategien aufdecken. Die Weiterentwicklung der LRP-Technologie, die „Spectral Relevance Analysis“ (SpRAy) identifiziere und quantifiziere ein breites Spektrum erlernten Entscheidungsverhaltens und erkenne somit auch in riesigen Datensätzen unerwünschte Entscheidungen.

Die neue Technik Spectral Relevance Analysis fasst zusammen, aufgrund welcher Kriterien KI-Systeme Entscheidungen treffen. © Fraunhofer HHI

Transparente KI

In der Praxis identifiziere die Technik einzelne Input-Elemente, die für eine Vorhersage genutzt wurden. Wird also beispielsweise ein Gewebebild in ein KI-System eingegeben, so wird der Einfluss jedes Pixels auf das Klassifikationsergebnis quantifiziert. Die Vorhersage, wie „krebsartig“ oder „nicht krebsartig“ das Gewebebild ist, werde also mit der Angabe der Basis für diese Klassifikation ergänzt.

„Nicht nur das Ergebnis soll korrekt sein, sondern auch der Lösungsweg. Bislang wurden KI-Systeme als Black Box angewendet. Man hat darauf vertraut, dass sie das richtige tun. Mit unserer Open-Source-Software, die die Layer-Wise Relevance Propagation einsetzt, ist es uns gelungen, die Lösungsfindung von KI-Systemen nachvollziehbar zu machen“, sagt Dr. Wojciech Samek, Leiter der Forschungsgruppe Machine Learning am Fraunhofer HHI.

„Mit LRP visualisieren und interpretieren wir Neuronale Netze und andere Machine Learning-Modelle. Mit LRP messen wir den Einfluss jeder Eingangsvariablen für die Gesamtvorhersage und zerlegen die Entscheidungen des Klassifizierer“«, ergänzt Dr. Klaus-Robert Müller, Professor für Maschinelles Lernen an der TU Berlin.

Unsichere Lösungsstrategien

Hier ordnet das KI-System das Bild anhand des Copyright-Schriftzugs der richtigen Kategorie zu. Die Lösungsstrategie ist dennoch fehlerhaft. © Fraunhofer HHI

Nur wer versteht, wie Neuronale Netze funktionieren, kann den Ergebnissen vertrauen. Dass KI-Systeme nicht immer sinnvolle Lösungswege finden, ergaben die Tests der Forscherteams. Beispielsweise klassifizierte ein renommiertes KI-System Bilder anhand des Kontextes. Es ordnete Fotos der Kategorie Schiff zu, wenn viel Wasser im Bild zu sehen war. Die eigentliche Aufgabe, Schiffe zu erkennen, löste es nicht, auch wenn die Mehrzahl der Bilder korrekt identifiziert war. „Zahlreiche KI-Algorithmen wenden unsichere Strategien an und kommen zu wenig sinnvollen Lösungen“, resümiert Samek das Ergebnis der Untersuchungen.

Neuronale Netze beim Denken beobachten

Die LRP-Technologie entschlüssele die Funktionsweise von Neuronalen Netzen und finde heraus, anhand welcher Merkmale ein Pferd als Pferd identifiziert wird und nicht als Esel oder Kuh. An jedem Knotenpunkt des Netzes erkenne sie, wie Informationen durch das Netz fließen. Somit sollen sich sogar sehr tiefe Neuronale Netze untersuchen lassen.

Derzeit erarbeiten die Forscherteams des Fraunhofer HHI und der TU Berlin neue Algorithmen, um weitere Fragestellungen zu untersuchen und KI-Systeme noch sicherer und robuster zu gestalten. Ihre Forschungsergebnisse haben die Projektpartner in dem Fachmagazin Nature Communications veröffentlicht.

Share

Leave a Reply

Your email address will not be published. Required fields are marked *

*