Bundesamt für Sicherheit in der Informationstechnik

Sicherheit für künstliche Intelligenz

Mit einem Kriterienkatalog für Ki-basierte Clouddienste will das Bundesamt für Sicherheit in der Informationstechnik eine Grundlage für die Bewertung der Sicherheit von KI-Systemen schaffen.

 (Bild: ©zapp2photo/stock.adobe.com)
(Bild: ©zapp2photo/stock.adobe.com)

Mit dem neuen Kriterienkatalog für KI-basierte Clouddienste (Artificial Intelligence Cloud Services Compliance Criteria Catalogue, AIC4) will das Bundesamt für Sicherheit in der Informationstechnik (BSI) eine Grundlage schaffen, um die Sicherheit von KI-Systemen bewerten zu können. Der AIC4 des BSI definiert dabei erstmals ein Basisniveau an Sicherheit für KI-basierte Dienste, die in Cloud-Infrastrukturen entwickelt und betrieben werden. Der AIC4 umfasst KI-spezifische Kriterien, die eine unabhängige Prüfung der Sicherheit eines KI-Service über dessen gesamten Lebenszyklus hinweg ermöglichen.

„Mit der zunehmenden Verbreitung lernender Systeme stellt sich immer dringender die Frage nach ihrer Vertrauenswürdigkeit. Deshalb nehmen wir uns als Cyber-Sicherheitsbehörde des Bundes dieser Fragestellung an. Wir legen mit dem AIC4 erstmals eine konkrete Lösung vor, die über nachvollziehbare Kriterien die Informationssicherheit im Bereich der künstlichen Intelligenz verbessert“, erklärt BSI-Präsident Arne Schönbohm.

KI-Zertifizierung ‘Made in Germany‘

Bereits im November 2020 ist das BSI im Rahmen der vom Land Nordrhein-Westfalen geförderten Kompetenzplattform KI.NRW eine strategische Kooperation mit Fraunhofer IAIS eingegangen, um die Entwicklung einer KI-Zertifizierung ‘Made in Germany‘ voranzubringen. Ziel der Zusammenarbeit ist es, Prüfverfahren für die Zertifizierung von KI-Systemen zu entwickeln, die als Basis für technische Standards und Normen dienen können.