Teil 8 der Serie ‚Autonome Systeme‘ – Sicherheit

„Dafür fällt niemandem bei der Fahrt das Lenkrad ab“

Prof. Michael Weyrich, Institut für Automatisierungstechnik und Softwaresysteme, Universität Stuttgart (Bild: VDI Verein Deutscher Ingenieure e.V.)
Prof. Michael Weyrich, Institut für Automatisierungstechnik und Softwaresysteme, Universität Stuttgart (Bild: VDI Verein Deutscher Ingenieure e.V.)

Funktioniert das?

Weyrich: Genau hier setzen unsere aktuellen Forschungen an. Wir benötigen Methoden, die man zum Test von autonomen Systemen einsetzen kann, um zu Aussagen zu deren Sicherheit zu gelangen. Ähnlich dem Vorgehen eines Fahrprüfers evaluieren wir mit unserem Testnavigator während des Tests, wie sich das getestete System verhält und ob besondere Detailprüfungen erforderlich sind oder nicht. Damit können wir Testfälle gezielt auswählen und so den Gesamttest schneller und effizienter durchführen, als dies mit dem Brute-Force-Verfahren möglich wäre. Allerdings brauchen wir auch hier eine weiterführende gesellschaftliche Diskussion, denn die Straßenverkehrsordnung lässt viele Situation deutlich zu unkonkret, um darauf Tests von autonomen Fahrzeugen durchführen zu können. Andere Ordnungen für Drohnen oder für spezielle Roboter z.B. in der Produktion existieren noch gar nicht. Darüber hinaus passieren bei autonomen Systemen völlig neuartige Fehler, die z.B. durch Radar, Reflektionen oder Effekte in der Mustererkennung ausgelöst werden. Dies kann dazu führen, dass in einer für den Menschen eindeutigen und einfachen Fahrsituation durch das autonome System trotzdem und plötzlich Fehler auftreten, die der Mensch so nicht erwartet hat und die zunächst unerklärlich erscheinen. Auch hierzu benötigen wir Forschung, um kritische Szenarien für autonome Systeme kennen und testen zu lernen.

Apropos Lernen – was passiert, wenn die Systeme im Betrieb neues erlernen?

Weyrich: Bisher haben wir nur über solche Systeme gesprochen, die durch Fachabteilungen der Hersteller entwickelt und dann eingesetzt werden. Eventuell kann dieser Einsatz auch per Update erfolgen sobald neue Algorithmen vorliegen. Das Lernen erfolgt dabei in den Entwicklungsabteilungen und nicht etwa während des Betriebs des autonomen Systems. Ich persönlich glaube, dass dies auch noch länger so bleiben wird, schon allein aus Gründen der Produkthaftung. Allerdings macht auch ein Software-Update, selbst wenn es nur eine Komponente betrifft, die oben genannte Gesamtzertifizierung hinfällig und es müsste nach heutigem Stand wieder eine komplett neue Zulassung erfolgen.

Wie entwickelt sich das Thema vor diesem Hintergrund weiter?

Weyrich: Menschen nehmen Risiken in Kauf. Schauen Sie sich die USA an: Dort sind autonome beziehungsweise hoch-automatisierte Fahrzeuge zulassungsfähig. Schon heute benutzen viele Menschen diese Funktionalitäten, sind stolz darauf, erzählen ihren Freunden davon und kümmern sich dabei nicht um die Zertifizierung, obwohl es immer wieder schlimme Unfälle gibt. In Europa sind wir vorsichtiger und verlangen im Vorfeld alle möglichen Prüfungen und Nachweise. Dafür fällt, wie bei einem amerikanischen Hersteller unlängst geschehen, niemandem während der Fahrt das Lenkrad ab. Meine Erwartung ist: Es wird weiterhin eine gesellschaftlich wichtige, aber auch schwierige Diskussion über die Sicherheit von autonomen Systemen geben. Diese wird in den Ländern der Erde unter Umständen auch einen jeweils anderen Verlauf nehmen. So oder so ist absehbar, dass es auch folgenschwere Unfälle geben wird, die die gesellschaftliche Diskussion in die eine oder andere Richtung lenken werden. Sicher ist aber auch, dass es zunehmend zur Verbesserung von autonomen Systemen kommen wird und uns diese letztlich im Thema der Zuverlässigkeit womöglich sogar beflügeln werden. Das allerdings wird noch eine ganze Weile dauern.