Ethik und künstliche Intelligenz

Wer macht die Spielregeln für die KI?

Welches Maß an IT-Sicherheit sollen autonome Systeme anstreben? Und wer entscheidet, wann kritische Situationen Ausnahmen im Umgang mit personenbezogenen Daten erlauben? (Bild: ©bluedesign/stock.adobe.com)
Welches Maß an IT-Sicherheit sollen autonome Systeme anstreben? Und wer entscheidet, wann kritische Situationen Ausnahmen im Umgang mit personenbezogenen Daten erlauben? (Bild: ©bluedesign/stock.adobe.com)

2. Neutral vs. voreingenommen: Das Problem der Bias

Aufgrund der Quantität als auch Vielfältigkeit an Angriffsarten mit denen Unternehmen und staatliche Institutionen täglich attackiert werden, sollten IT-Sicherheitsverantwortliche durch KI unterstützt werden. Etwa indem automatisiert eine Liste der zehn gravierendsten Bedrohungen inklusive Handlungsempfehlungen zur Verfügung gestellt werden, die dann priorisiert im Sinn der optimalen Schadensbegrenzung umsetzbar sind. Obwohl diese Vorgehensweise sinnvoll erscheint, entsteht daraus potentiell ein Dilemma im Bezug auf die richtige Handlungsweise, allein basierend auf der Tatsache einer algorithmischen Voreingenommenheit bzw. Verzerrung. Denn die Auswahl der sicherheitsrelevanten Daten, geprägt u.a. durch Erfahrungswerte aus der Vergangenheit und Vorurteile, beeinflusst die zukünftigen Ergebnisse. Das wird etwa an statistischen Analysen im Kontext der Polizeiarbeit in den USA deutlich – die Annahme, dass eine bestimmte Bevölkerungsgruppe eher zu Straftaten neigt, legt den Fokus auf diese und wird dann kontinuierlich anhand aktualisierter Werte weiter bestätigt. Analog dazu wäre es vorstellbar, dass komplexe Angriffe auf Institutionen bevorzugt mit China in Verbindung gebracht werden. Dies hätte dann zur Folge, dass ein Hauptaugenmerk auf Angriffe aus diesem Land läge, die automatisch als gravierender bewertet würden, inklusive obligatorischer Vorgaben, bestimmte Maßnahmen zu ergreifen. Die Analyse, ob es der Realität entspricht oder ob der Angriff einer anderen Nation viel kritischer einzustufen wäre, würde dann sekundär. Da sich im Einzelfall aus der Masse der vorliegenden sicherheitsrelevanten Daten nicht ad hoc entscheiden lässt, ob die KI die richtigen Präferenzen getroffen hat, sollte das Feld der algorithmischen Voreingenommenheit weiter erforscht werden.

3. Strike Back: Unvollständigkeit der Daten

Dem Konstrukt des Strike Back liegt die Hypothese zugrunde, dass ein Angriff durch einen Gegenangriff beendet werden kann. Unter Einsatz von KI wäre es theoretisch möglich, eine vollkommen neutrale Einschätzung zu ermitteln, was unternommen werden müsste, um einen Angreifer zum Aufgeben zu motivieren. Die ethische Frage in diesem Kontext dreht sich um den Begriff der Neutralität und ob es überhaupt möglich ist, wirklich vollständige Daten zu erheben, um eine ausgewogene und verantwortliche Entscheidung durch KI-Systeme errechnen zu lassen. Davon ausgehend, dass ein Strike Back automatisiert erfolgt, könnte möglicherweise ein Schaden auf einer höheren Ebene angerichtet werden, der moralisch nicht vertretbar wäre. Fragestellungen wie diese zeigen den eklatanten Forschungsbedarf dahingehend auf, inwieweit es leistbar ist vertrauenswürdige KI-Systeme zu entwickeln, die den Schutz der Zivilgesellschaft gewährleisten können.

Fazit

Beim Einsatz von KI muss ein rationaler verantwortungsvoller Umgang mit dieser oberste Priorität haben. Die Probleme werden allein aufgrund der Komplexität weiter zunehmen – bereits aus dem Grund, dass bei den Angriffen verstärkt KI zum Einsatz kommt. Um hier in puncto Ethik die Rahmenbedingungen zu gestalten, gilt es auch im Bereich Sicherheit den gesellschaftlichen Diskurs zu führen. Etwa dahingehend, welchen Stellenwert die Sicherheit einnehmen soll und ab welchem Grad der Sicherheit eine Situation als sicher gilt. Denn diese Kriterien haben unter anderem einen Effekt auf die Entscheidung, was für eine Gesellschaft akzeptabel ist – etwa der automatisierte Einsatz von Strike Back. Dies verlangt auch die offene Debatte darüber ein, wie weit es möglich ist, sich auf Technologie zu verlassen. Das lässt den Schluss zu, dass aufgrund der Komplexität und der technologischen Weiterentwicklung bei wichtigen Anwendungen der Menschen als kontrollierende Instanz einzubinden ist. Ergebnisse von KI-Systemen sollten als Handlungsempfehlung verstanden werden, denen Menschen folgen können, oder eben nicht. Damit wird die Selbstbestimmtheit und Souveränität der Menschen gefördert sowie gleichzeitig die Vertrauenswürdigkeit in KI-Systeme erhöht.