Künstliche Intelligenz

Prüfkriterien zur KI-Zertifizierung

Um das wirtschaftliche und gesellschaftliche Potential von künstlicher Intelligenz auszuschöpfen, müssen Menschen den Entscheidungen von KI-Systemen und den mit ihnen verbundenen Prozessen vertrauen. Dazu kann eine entsprechende Zertifizierung beitragen. Nach welchen Kriterien dies geschehen könnte, zeigt die Plattform Lernende Systeme in einem aktuellen Whitepaper.

Bild: ©monsitj/stock.adobe.com
Bild: ©monsitj/stock.adobe.com

Die Zertifizierung ist eine Möglichkeit, um die Qualität eines KI-Systems sicherzustellen. Sie ist eine meist zeitlich begrenzte Bestätigung durch unabhängige Dritte, dass vorgegebene Standards, Normen oder Richtlinien eingehalten werden. Dabei gilt: Nicht jede KI-Anwendung muss zertifiziert werden. Während ein Großteil der KI-Systeme unproblematisch sein dürfte, wie etwa Algorithmen zur Identifizierung von Spammails, gibt es Anwendungen, die einer genaueren Prüfung unterzogen werden sollten, heißt es in in einem aktuellen Whitepaper der Plattform Lernende Systeme. Die Autoren schlagen darin vor, für die Entscheidung, ob ein System zertifiziert werden soll, die sogenannte Kritikalität des Systems zu bewerten. Zu fragen sei, ob ein System Menschenleben oder Rechtsgüter wie die Umwelt gefährde und wie viel Handlungsspielraum dem Menschen bei der Auswahl und Nutzung der Anwendung bleibt, etwa um bestimmte Funktionen abzuschalten. Entscheidend für die Kritikalität ist stets der Anwendungskontext. Das gleiche System kann in einem Anwendungskontext unproblematisch und in einem anderen höchst kritisch sein. So könne ein Staubsaugerroboter trotz seines hohen Maßes an Autonomie zunächst als vergleichsweise unproblematisch gelten, sammelt er aber Daten, die er seinem Hersteller zur Verfügung stellt, kann die Bewertung kritischer ausfallen.

Überregulierung ist zu vermeiden

„Eine Zertifizierung kann für eine Vielzahl von KI-Systemen dazu beitragen, ihr gesellschaftliches Nutzenpotential sicher und gemeinwohlorientiert auszuschöpfen. Damit dies im Einklang mit gesellschaftlich anerkannten Werten geschieht, muss eine Form von Zertifizierung gefunden werden, die von wichtigen ethischen Prinzipien geleitet wird, aber gleichzeitig auch ökonomische Prinzipien erfüllt, Überregulierung vermeidet sowie Innovationen fördert. Im besten Fall kann eine Zertifizierung selbst zum Auslöser neuer Entwicklungen für einen europäischen Weg in der KI-Anwendung werden“, sagt Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen sowie Co-Leiterin der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik. Bei einem höheren Kritikalitätsgrad, wie zum Beispiel einer KI, die zur Verteilung von Studienplätzen eingesetzt wird, empfehlen Autoren, den Staat als regulierende Instanz einzusetzen. Für besonders kritische Anwendungskontexte wie einer biometrischen Fernidentifikation könnte der Staat Verbote oder Einschränkungen beim Einsatz aussprechen.

Die anzulegenden Prüfkriterien unterteilen die Autoren in Mindestkriterien, die immer erfüllt werden müssen, und darüber hinaus gehende freiwillige Kriterien. Zu den Mindestkriterien zählten Transparenz, Sicherheit, Diskriminierungsfreiheit oder Schutz der Privatheit. Als weitere Kriterien nennt das Whitepaper etwa Nutzerfreundlichkeit oder Nachhaltigkeit. Die Zertifizierung sollte durchgeführt werden, bevor das KI-System in der Praxis zum Einsatz kommt. Allerdings entwickeln sich vor allem lernende KI-Systeme nach Inbetriebnahme weiter, was turnusmäßige Re-Zertifizierungen notwendig machen kann. Zudem empfehlen die Autoren, Bürger in Zertifizierungsprozesse einzubeziehen und bereits in der Schule Wissen zur Funktionsweise von KI-Systemen zu vermitteln.