Ein Blick in das neurale Netz

Wann ist ein Pferd ein Pferd?

Fortschritte im KI-Bereich beruhen vor allem auf der Verwendung neuronaler Netze. Bisher wusste man allerdings nicht, wie ein neuronales Netz Entscheidungen trifft. Forschende des Fraunhofer Heinrich-Hertz-Instituts HHI und der Technischen Universität Berlin haben nun eine Technik für diese Aufgabe entwickelt.

 (Bild: ©Naeblys/stock.adobe.com)
(Bild: ©Naeblys/stock.adobe.com)

Viele Unternehmen nutzen bereits lernende und vernetzte KI-Systeme. Im Gesundheitswesen hilft KI beim Anfertigen von Prognosen auf Basis von strukturierten Daten – etwa bei der Bilderkennung. So werden Röntgenbilder als Input in ein KI-System gegeben, der Output ist eine Diagnose. Beim autonomen Fahren müssen Verkehrszeichen, Bäume, Fußgänger und Radfahrer fehlerfrei erkannt werden. Nachvollziehen ließen sich die Entscheidungen der KI-Systeme in der Regel nicht.

Strategien sichtbar gemacht

Mit der Layer-Wise Relevance Propagation (LRP) haben Forschende am Fraunhofer-Institut für Nachrichtentechnik und der Technischen Universität Berlin nun eine Technik entwickelt, die KI-Prognosen erklärbar macht und so unsichere Problemlösungsstrategien aufdecken kann. Die Weiterentwicklung der LRP-Technologie, die sogenannte Spectral Relevance Analysis (Spray) identifiziert und quantifiziert ein breites Spektrum erlernten Entscheidungsverhaltens und soll so auch in riesigen Datensätzen unerwünschte Entscheidungen aufdecken.

Neuronale Netze interpretieren

In der Praxis identifiziert die Technik einzelne Input-Elemente, die für eine Vorhersage genutzt wurden. Wird beispielsweise ein Gewebebild in ein KI-System eingegeben, so wird der Einfluss jedes Pixels auf das Klassifikationsergebnis quantifiziert. Die Vorhersage, wie ‚krebsartig‘ oder ’nicht krebsartig‘ das Gewebebild ist, wird also mit der Angabe der Basis für diese Klassifikation ergänzt. „Nicht nur das Ergebnis soll korrekt sein, sondern auch der Lösungsweg. Bislang wurden KI-Systeme als Black Box angewendet. Man hat darauf vertraut, dass sie das richtige tun“, sagt Dr. Wojciech Samek, Leiter der Forschungsgruppe Machine Learning am Fraunhofer HHI.

Lösungsweg erkennen

Nur wer versteht, wie neuronale Netze funktionieren, kann den Ergebnissen vertrauen. Dass KI-Systeme nicht immer sinnvolle Lösungswege finden, ergaben die Tests der Forscherteams. Beispielsweise klassifizierte ein renommiertes KI-System Bilder anhand des Kontextes. Es ordnete Fotos der Kategorie Schiff zu, wenn viel Wasser im Bild zu sehen war. Die eigentliche Aufgabe, Schiffe zu erkennen, löste es nicht, auch wenn die Mehrzahl der Bilder korrekt identifiziert war. „Zahlreiche KI-Algorithmen wenden unsichere Strategien an und kommen zu wenig sinnvollen Lösungen“, resümiert Samek das Ergebnis der Untersuchungen.

Pferd vom Esel unterscheiden

Die LRP-Technologie entschlüsselt die Funktionsweise von neuronalen Netzen, und findet heraus, anhand welcher Merkmale ein Pferd als Pferd identifiziert wird und nicht als Esel oder Kuh. An jedem Knotenpunkt des Netzes erkennt sie, wie Informationen durch das Netz fließen. Somit lassen sich sogar sehr tiefe neuronale Netze untersuchen. Derzeit erarbeiten die Forscherteams neue Algorithmen, um weitere Fragestellungen zu untersuchen und KI-Systeme sicherer und robuster zu gestalten.