Anzeige
Anzeige
Anzeige
Beitrag drucken

Studie zu Explainable Artificial Intelligence

Künstliche Intelligenz erklärbar machen

Künstliche Intelligenz hat meistens Black-Box-Charakter. Doch nur Transparenz kann Vertrauen schaffen. Um die jeweiligen Lösungswege künstlicher Intelligenz zu erklären, gibt es spezielle Software-Lösungen. Eine Studie des Fraunhofer IPA hat die unterschiedlichen Methoden verglichen und bewertet.

Bild: ©wacomka/stock.adobe.com

Bild: ©wacomka/stock.adobe.com

Insbesondere bei kritischen Anwendungen wollen Nutzer verstehen, wie eine von künstlicher Intelligenz getroffenen Entscheidung zustande kommt. Nur so sind Verbesserungen möglich, die zunehmend auch die Sicherheit betreffen. Zudem schreibt die europäische Datenschutzgrundverordnung vor, Entscheidungen nachvollziehbar zu machen.

Neun Verfahren verglichen

Rund um dieses Problem ist ein ganzes Forschungsfeld entstanden: die ’Explainable Artificial Intelligence’ (xAI), die erklärbare künstliche Intelligenz. Auf dem Markt gibt es unterschiedliche digitale Hilfen, die komplexe KI-Lösungswege erklärbar machen sollen. Experten des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA haben neun Erklärungsverfahren – wie LIME, SHAP oder Layer-Wise Relevance Propagation – miteinander verglichen und mithilfe von beispielhaften Anwendungen bewertet. Dabei zählten vor allem drei Kriterien:

  • Stabilität: Bei gleicher Aufgabenstellung soll das Programm stets dieselbe Erklärung liefern. Es darf nicht sein, dass für eine Anomalie in der Produktionsmaschine einmal Sensor A und dann Sensor B verantwortlich gemacht wird. Das würde das Vertrauen in den Algorithmus zerstören und das Ableiten von Handlungsoptionen erschweren.
  • Konsistenz: Gleichzeitig sollten nur geringfügig unterschiedliche Eingabedaten auch ähnliche Erklärungen erhalten.
  • Wiedergabetreue: Wichtig ist auch, dass Erklärungen tatsächlich das Verhalten des KI-Modells abbilden. Es darf beispielsweise nicht passieren, dass die Erklärung für die Verweigerung eines Bankkredits ein zu hohes Alter des Kunden benennt, obwohl eigentlich das zu geringe Einkommen ausschlaggebend war.

Die perfekte Methode gibt es nicht

Laut Studie haben sich alle untersuchten Erklärungsmethoden sich als brauchbar erwiesen. „Doch es gibt nicht die eine perfekte Methode“, sagt Nina Schaaf, die beim Fraunhofer IPA für die Studie verantwortlich ist. Große Unterschiede gibt es beispielsweise bei der Laufzeit, die ein Verfahren benötigt, so die Studienautoren. Die Auswahl der besten Software ist zudem maßgeblich von der jeweiligen Aufgabenstellung abhängig. So sind laut Untersuchung etwa Layer-Wise Relevance Propagation und Integrated Gradients für Bilddaten besonders gut geeignet. „Und schließlich ist immer auch die Zielgruppe einer Erklärung wichtig: Ein KI-Entwickler möchte und sollte eine Erklärung anders dargestellt bekommen als der Produktionsleiter, denn beide ziehen jeweils andere Schlüsse aus den Erklärungen“, resümiert Schaaf.

Die Studie kann hier heruntergeladen werden.

Beitrag drucken

Künstliche Intelligenz erklärbar machen

Künstliche Intelligenz hat meistens Black-Box-Charakter. Doch nur Transparenz kann Vertrauen schaffen. Um die jeweiligen Lösungswege künstlicher Intelligenz zu erklären, gibt es spezielle Software-Lösungen. Eine Studie des Fraunhofer IPA hat die unterschiedlichen Methoden verglichen und bewertet. (mehr …)


Das könnte Sie auch interessieren:

Cenit will sein Marktpräsenz in Osteuropa ausbauen und plant eine Übernahme des Dassault Systèmes-Geschäfts des rumänischen Software-Hauses Magic Engineering SRL.‣ weiterlesen

Mit einer Marktstudie will das Fraunhofer-Institut für Materialfluss und Logistik Energieeffizienz und Treibhausgas-Emissionen von Logistikstandorten untersuchen. Unternehmen sind aufgerufen, an der Erhebung teilzunehmen.‣ weiterlesen

Herbert Hufnagl ist neues Vorstandsmitglied und General Manager beim österreichischen Softwarespezialisten TTTech Industrial. Er zeichnet für die Bereiche Vertrieb, Marketing und Produktmanagement verantwortlich.‣ weiterlesen

Mit dem Mess- und Analysesystem Leakwatch beugen Techniker Problemen durch unerwünschte Ableitströme vor. Das System der Firma EPA kennt die Ableitströme entlang der Auslösekennlinien marktüblicher Fehlerstrom-Schutzschalter und hilft Anwendern so bei der Wahl des passenden FIs.‣ weiterlesen

Die IAB-Stellenerhebung für das zweite Quartal hat den Höchstwert aus dem Vorquartal übertroffen, und mit 1,93 Millionen offenen Stellen ein neues Allzeithoch erreicht.‣ weiterlesen

Im ersten Halbjahr haben deutsche Unternehmen insgesamt mehr Waren exportiert als im Vorjahreszeitraum. Die wichtigsten Exportgüter waren dabei Kraftfahrzeuge und Maschinen.‣ weiterlesen

Die Strecke zur Industrie 4.0 bewältigen Anlagenbetreiber nicht im Sprint, sondern im Marathon. Reifegradmodelle helfen ihnen, die vielversprechenden Meilensteine anzusteuern. Wobei bereits die Visualisierung zahlreiche Ansätze zur Modernisierung bietet – in der Balance zwischen Funktionalität und Sicherheit.‣ weiterlesen

So gut die Förderanlagen von Kühne im Betrieb auch funktionierten - bei den internen Fertigungsabläufen war Luft nach oben. Eine weitreichende Digitalisierungskampagne sollte das ändern. Heute fertigt die Firma vom Auftragseingang bis zur Auslieferung in einem durchgängigen Prozess - was künftig Optimierungen auf einem ganz neuen Niveau erlaubt.‣ weiterlesen