Teil 3: Wie machen wir das autonome System autonom?

Leitplanken und Probezeit für das autonome System

Dann ist also auch ein autonomes System beherrschbar?

Weyrich: In seinen Leitplanken schon. Die zentrale Frage, die wir auch innerhalb dieser Leitplanken vorgeben können, lautet: Was passiert, wenn sich Systeme von einem deterministischen Steuerungsparadigma hin zu selbstlernenden oder gar Transfer lernenden Systemen weiterentwickeln? Von da an sind die Systementscheidungen nicht mehr nachvollziehbar und können – vor allem bei komplexen Systemen – unterschiedlich ausfallen, wenn sich einzelne Wahrscheinlichkeiten verändern. Nehmen wir das oben gewählte Beispiel mit einem Entscheidungsbaum und mehreren Entscheidungsebenen. Der Weg zur Lösung ist nicht exakt vorgegeben. Wenn sich nur an einer einzigen Stelle von Transition A zu Transition B die Wahrscheinlichkeit zugunsten eines anderen Pfades verändert, dann ändert sich auch die Handlungsentscheidung. Die Überprüfbarkeit von Entscheidungen und vor allem die Vorhersage in definierten Systemgrenzen werden unübersichtlich oder sind für Außenstehende nicht mehr nachvollziehbar. Auf dieser Basis würde beispielsweise ein autonomes Fahrzeug heute keine TÜV-Plakette bekommen. Denn es handelt sich ja um ein selbstlernendes, also ein sich veränderndes System. Außerdem ergibt sich noch ein ganz anderes Problem: das der Haftung. Wenn etwa ein selbstfahrendes Auto einen Unfall verursacht – wer trägt dann die Schuld?

Das Verhalten eines selbstlernenden Systems kann also nicht vorhergesagt werden?

Weyrich: Doch – schon, aber es muss übergeordnete Abnahmetests geben, die das Gesamtverhalten überprüfen. Wir akzeptieren heute anstandslos Führerscheinprüfungen, bei denen ein Mensch über einen kurzen Zeitraum sein Können demonstriert und dann eine Fahrerlaubnis erhält. Man diskutiert dann lediglich noch wie lange eine Probezeit gilt. Für autonome Systeme muss das ähnlich werden. Aufgrund eines sogenannten deterministischen Chaos müssen wir uns von der Vorstellung lösen, jeden einzelnen Steuerungsschritt haarklein überprüfen zu wollen. Vielmehr muss es Szenarien geben, die die kritischen Situationen abfragen und prüfen.

Ist überhaupt eine verlässliche Aussage darüber möglich, ob und wann ein lernendes System korrekt funktioniert?

Weyrich: Es gibt statistische Aussagen dazu, wann ein autonom fahrendes Fahrzeug mit sehr hoher Wahrscheinlichkeit mindestens so gut funktioniert, wie man es heute von den Unfallzahlen im Straßenverkehr gewohnt ist. Je nach Berechnungsansatz landet man im Bereich von vielen hundert Millionen Kilometern, die zurückgelegt werden müssten, um klare statistische Belege zu liefern, dass das System korrekt und so zuverlässig reagiert, wie heute menschliche Fahrer. Es ist also alles eine Frage des Reifegrads und der Wahrscheinlichkeiten, ihrer Bewertung und des Bewusstseins dafür, dass solche umfassenden Tests zu Beginn gar nicht möglich sind.

Herr Prof. Weyrich, vielen Dank für das Gespräch!


Serie: Zehn Fragen zu KI und autonomen Systemen

Künstliche Intelligenz (KI) und autonome Systeme sind in vielen Bereichen der Industrie, der Logistik und des Verkehrs untrennbar miteinander verknüpft. Allein und in Kombination bergen sie große wirtschaftliche Potenziale, bringen aber auch Risiken mit sich. Die Arbeitsgruppe ‚Autonome Systeme‘ der VDI/VDE-Gesellschaft Mess- und Automatisierungstechnik (VDI/VDE-GMA) hat zehn Fragen zusammengetragen, die es zu beantworten gilt, um KI wirtschaftlich erfolgreich zu machen:
1. Wie können wir das autonome System beherrschen?
2. Wie autonom soll das autonome System für uns sein?
3. Wie machen wir das autonome System autonom?
4. Wie nachvollziehbar muss das Verhalten eines autonomen Systems sein?
5. Wie kann man autonome Systeme vergleichen?
6. Wie zuverlässig ist das lernende autonome System?
7. Wie effizient ist das autonome System?
8. Wie sicher ist das autonome System?
9. Wo sind die Grenzen des autonomen Systems?
10. Welchen Werten folgt das autonome System?