- IT&Production - https://www.it-production.com -

Künstliche Intelligenz erklärbar machen

Studie zu Explainable Artificial Intelligence

Künstliche Intelligenz erklärbar machen

Künstliche Intelligenz hat meistens Black-Box-Charakter. Doch nur Transparenz kann Vertrauen schaffen. Um die jeweiligen Lösungswege künstlicher Intelligenz zu erklären, gibt es spezielle Software-Lösungen. Eine Studie des Fraunhofer IPA hat die unterschiedlichen Methoden verglichen und bewertet.

Bild: ©wacomka/stock.adobe.com [1]

Bild: ©wacomka/stock.adobe.com

Insbesondere bei kritischen Anwendungen wollen Nutzer verstehen, wie eine von künstlicher Intelligenz getroffenen Entscheidung zustande kommt. Nur so sind Verbesserungen möglich, die zunehmend auch die Sicherheit betreffen. Zudem schreibt die europäische Datenschutzgrundverordnung vor, Entscheidungen nachvollziehbar zu machen.

Neun Verfahren verglichen

Rund um dieses Problem ist ein ganzes Forschungsfeld entstanden: die ’Explainable Artificial Intelligence’ (xAI), die erklärbare künstliche Intelligenz. Auf dem Markt gibt es unterschiedliche digitale Hilfen, die komplexe KI-Lösungswege erklärbar machen sollen. Experten des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA haben neun Erklärungsverfahren – wie LIME, SHAP oder Layer-Wise Relevance Propagation – miteinander verglichen und mithilfe von beispielhaften Anwendungen bewertet. Dabei zählten vor allem drei Kriterien:

Die perfekte Methode gibt es nicht

Laut Studie haben sich alle untersuchten Erklärungsmethoden sich als brauchbar erwiesen. „Doch es gibt nicht die eine perfekte Methode“, sagt Nina Schaaf, die beim Fraunhofer IPA für die Studie verantwortlich ist. Große Unterschiede gibt es beispielsweise bei der Laufzeit, die ein Verfahren benötigt, so die Studienautoren. Die Auswahl der besten Software ist zudem maßgeblich von der jeweiligen Aufgabenstellung abhängig. So sind laut Untersuchung etwa Layer-Wise Relevance Propagation und Integrated Gradients für Bilddaten besonders gut geeignet. „Und schließlich ist immer auch die Zielgruppe einer Erklärung wichtig: Ein KI-Entwickler möchte und sollte eine Erklärung anders dargestellt bekommen als der Produktionsleiter, denn beide ziehen jeweils andere Schlüsse aus den Erklärungen“, resümiert Schaaf.

Die Studie kann hier heruntergeladen werden. [2]

Künstliche Intelligenz erklärbar machen

geschrieben von xmlrpc am in Allgemein,Industrie 4.0 / IoT | Kommentare sind deaktiviert

Künstliche Intelligenz erklärbar machen

Künstliche Intelligenz hat meistens Black-Box-Charakter. Doch nur Transparenz kann Vertrauen schaffen. Um die jeweiligen Lösungswege künstlicher Intelligenz zu erklären, gibt es spezielle Software-Lösungen. Eine Studie des Fraunhofer IPA hat die unterschiedlichen Methoden verglichen und bewertet.

 (Bild: ©wacomka/stock.adobe.com) [3]

(Bild: ©wacomka/stock.adobe.com)


Insbesondere bei kritischen Anwendungen wollen Nutzer verstehen, wie eine von künstlicher Intelligenz getroffene Entscheidung zustande kommt. Nur so sind Verbesserungen möglich, die zunehmend auch die Sicherheit betreffen. Zudem schreibt die europäische Datenschutzgrundverordnung vor, Entscheidungen nachvollziehbar zu machen. Rund um dieses Problem ist ein ganzes Forschungsfeld entstanden: die ‚Explainable Artificial Intelligence‘ (xAI), die erklärbare künstliche Intelligenz. Auf dem Markt gibt es unterschiedliche digitale Hilfen, die komplexe KI-Lösungswege erklärbar machen sollen. Experten des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA haben neun Erklärungsverfahren – wie LIME, SHAP oder Layer-Wise Relevance Propagation – miteinander verglichen und mithilfe von beispielhaften Anwendungen bewertet. Dabei zählten vor allem drei Kriterien:

Laut Studie haben sich alle untersuchten Erklärungsmethoden als brauchbar erwiesen. „Doch es gibt nicht die eine perfekte Methode“, sagt Nina Schaaf, die beim Fraunhofer IPA für die Studie verantwortlich ist. Große Unterschiede gibt es beispielsweise bei der Laufzeit, die ein Verfahren benötigt, so die Studienautoren. Die Auswahl der Software ist zudem maßgeblich von der jeweiligen Aufgabenstellung abhängig. „Und schließlich ist immer auch die Zielgruppe einer Erklärung wichtig: Ein KI-Entwickler möchte und sollte eine Erklärung anders dargestellt bekommen als der Produktionsleiter, denn beide ziehen jeweils andere Schlüsse aus den Erklärungen“, resümiert Schaaf.