Teil 1: Wie können wir das autonome System beherrschen?

Im Gespräch mit Dr. Attila Bilgic.

„Der Begriff ‚autonom‘ weckt Ängste“

Die sind ja noch nicht autonom!

Bilgic: Das ist richtig. Bei einer neuen Technologie kann man gut mit Assistenzsystemen beginnen, etwa mit sehr spezifischen Funktionen, die dem Prinzip ‚divide and conquer‘ folgen. Der Nutzer kann die neue Technologie so erstmal ‚Stück für Stück‘ kennenlernen und die Systeme können begleitend weiter reifen. Dadurch wächst das Vertrauen und irgendwann entwickelt sich vielleicht der Wunsch, die Kontrolle komplett an ein System abzugeben.

Die beim Auto immer beim einzelnen Fahrer bleibt, oder?

Bilgic: Das ist vor allem aus ethischer Sicht eine spannende Frage. Fakt ist, dass autonome Fahrsysteme in höherem Tempo dazulernen, als sich die menschliche Fahrsicherheit entwickelt. Es lässt sich ziemlich leicht ausrechnen, ab wann der Mensch doppelt so viele Unfälle produziert, wann zehnmal so viele und wann hundertmal so viele Unfälle wie das autonome System. Ab welchem Zeitpunkt erlauben wir uns nicht mehr, den finalen Fehler zu machen? Oder anders ausgedrückt: Wie viele Unfalltote ist uns unsere Fahrautonomie als Gesellschaft wert?

Sicherheit bedeutet aber auch, dass wir Menschen einen Notausschalter haben ?

Bilgic: Das sollte natürlich so sein. Wenn ein Mensch eine kritische Situation erkennt und bitteschön auch, wenn eine künstliche Intelligenz eine solche erkennt, dann sollte möglichst schnell ein sicherer Zustand hergestellt werden. Das ist leicht gesagt, aber was bedeutet das im konkreten Einzelfall? Die Autofahrt abbrechen, rechts ranfahren und ausschalten? Auch auf Autobahnabschnitten ohne Standstreifen? Auch bei Rettungswagen im Einsatz? Wie funktioniert der Notausschalter bei einem Flugzeug, das in der Luft ist? Wie wird das sichere Abfahren einer Industrieanlage gewährleistet? Je nach Situation werden sich Fälle finden, in denen der Mensch die Maschine rettet, weil er die Kontrolle übernimmt und Fälle, in denen es zum Absturz kommt, weil er die Kontrolle nicht abgibt.

Es kommt also immer auch auf den Einzelfall an?

Bilgic: Genau. Diese Fragestellungen müssen domänenspezifisch betrachtet werden. Da helfen Standardparadigmen nicht unbedingt weiter.

Welche ethischen Grenzen sehen Sie für den Einsatz autonomer Systeme?

Bilgic: Um diese Frage zu beantworten, sollten wir uns immer klar machen, welche Bedürfnisse wir uns mit autonomen Systemen erfüllen und welchen sie entgegenstehen. Und dann können wir uns bewusst dafür oder dagegen entscheiden. Das ist allerdings kompliziert, da wir diese Fragen persönlich, für Gruppen unterschiedlicher Größe und letztendlich für die gesamte Weltbevölkerung beantworten müssen.

Können Sie ein Beispiel nennen?

Bilgic: Ja, klar. Natürlich wollen wir das Weltklima retten. Das sind wir unseren Kindern, Enkeln und Urenkeln schuldig. Bis auf drei Ausnahmen sehen die Staaten das Klimaabkommen von Paris als hierfür notwendig an. Allerdings scheint aktuell nur eine Minderheit dieser Staaten die gemachten Zusagen auch einhalten zu können. Wir haben es also mit einer komplexen Situation zu tun, mit der wir angeblich so intelligenten Menschen nachweislich überfordert sind. Denn auf der einen Seite sind wir auf unterschiedlichen Ebenen sozial verwoben, etwa als Unternehmen oder auch als Länder, die miteinander konkurrieren. Auf der anderen Seite spüren wir die Konsequenzen unseres Handelns nicht unmittelbar.

Die Macht der Gewohnheit verhindert hier grundsätzliche Veränderungen?

Bilgic: Richtig. Da wäre eine Art unabhängiger CO2-Emissionswächter doch praktisch, oder? Ein autonomes System, in dem alle Daten zusammenlaufen und das über Mechanismen verfügt, um bei Bedarf Emittenten lahm zu legen. Das könnte dazu beitragen, uns und unsere Nachfahren zu retten. Man muss sich hier jedoch vorher sehr genau Gedanken machen, welche Entscheidungsplanken und Randbedingungen ein solches System haben soll.

Was könnte sonst im ungünstigen Fall passieren?

Bilgic: Naja, wenn das autonome System nur die Aufgabe bekäme, den CO2-Ausstoß zu minimieren, könnte es leicht auf die Lösung kommen, am besten die gesamte Menschheit zu eliminieren. Hilft dem Klima sehr wohl, nicht aber unseren Kindern, Enkeln und Urenkeln.

Womit wir wieder bei Science-Fiction sind?

Bilgic: Natürlich habe ich übertrieben. Wir Menschen können im Denken eben nicht diese großen Sprünge machen. Uns bleibt nichts anderes übrig, als die autonomen Systeme kritisch, aber auch neugierig zu begleiten und mit ihnen zu wachsen. Jeder Einsatzfall muss im Detail für sich diskutiert werden.


Themenreihe: Zehn offene Fragen zu KI und autonomen Systemen

Künstliche Intelligenz (KI) und autonome Systeme sind in vielen Bereichen der Industrie, der Logistik und des Verkehrs untrennbar miteinander verknüpft. Allein und in Kombination bergen sie große wirtschaftliche Potenziale, bringen aber auch Risiken mit sich. Die Arbeitsgruppe ‚Autonome Systeme‘ der VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik (VDI/VDE-GMA) hat zehn Fragen zusammengetragen, die es zu beantworten gilt, um KI wirtschaftlich erfolgreich zu machen.
„Autonome Systeme können, richtig eingesetzt, schwierige Aufgaben übernehmen und Nutzen bringen. Aber der Einsatz autonomer Systeme wirft auch Fragen auf“, sagt Prof. Alexander Fay, Mitglied im Vorstand der VDI/VDE-GMA. „Diese Fragen sollten geklärt werden, bevor ein autonomes System gestartet wird“, ergänzt Prof. Birgit Vogel-Heuser, die gemeinsam mit Prof. Fay die Arbeitsgruppe leitet.
Die folgenden zehn Fragen bündeln essenzielle Herausforderungen, die es bei autonomen Systemen zu bewältigen gilt:
1. Wie können wir das autonome System beherrschen?
2. Wie autonom soll das autonome System für uns sein?
3. Wie machen wir das autonome System autonom?
4. Wie nachvollziehbar muss das Verhalten eines autonomen Systems sein?
5. Wie kann man autonome Systeme vergleichen?
6. Wie zuverlässig ist das lernende autonome System?
7. Wie effizient ist das autonome System?
8. Wie sicher ist das autonome System?
9. Wo sind die Grenzen des autonomen Systems?
10. Welchen Werten folgt das autonome System?

 

Zur Person

(Bild: VDI Verein Deutscher Ingenieure e.V.)
(Bild: VDI Verein Deutscher Ingenieure e.V.)

Dr. Dr. h.c. Attila M. Bilgic ist seit 2009 als Chief Technical Officer und seit 2017 im Vorstand der Krohne Gruppe tätig und betreibt hier unter anderem die Implementierung grundlegender technischer Aspekte für die Industrie 4.0 und die hierfür notwendige Gestaltung der organisatorischen Rahmenbedingungen. Hier nutzt er die Erfahrungen, die er etwa bei der Infineon Technologies AG von 2000 bis 2009 im Geschäftsbereich ‚Communication Solutions‘, zuletzt als Director System Engineering und von 2007 bis 2009 als Leiter des Lehrstuhls ‚Integrierte Systeme‘ an der Ruhr-Universität Bochum gewonnen hat. Er ist Vorstandsvorsitzender der VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik (GMA), Kurator des Fraunhofer-Instituts für Mikroelektronische Schaltungen und Systeme IMS und Ehrendoktor der Polytechnischen Universität Timisoara, Rumänien.