Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Beitrag drucken

Vertrauen in künstliche Intelligenz

Akzeptanz schaffen, nur wie?

Unternehmen setzen zunehmend auf KI oder planen, dies künftig zu tun. Doch neben aller Euphorie gibt es bezüglich künstlicher Intelligenz auch Vorbehalte und Unsicherheit. Darum gilt es, die Blackbox der Systeme ein Stück weit aufzubrechen, um die Akzeptanz und auch die Qualität von KI-Ergebnissen zu verbessern.

Manipulation von KI-Systemen (Bild: Prof. Norbert Pohlmann)

Manipulation von KI-Systemen (Bild: Prof. Norbert Pohlmann)

Bevor KI in Unternehmen und auch in der Gesellschaft auf Akzeptanz stößt, müssen bestimmte Herausforderungen gelöst werden. In der Vertrauenswürdigkeit liegt ein Schlüssel für den Erfolg der Technologie. Ausgehend von der Definition, dass Vertrauen als die subjektive Überzeugung von der Richtigkeit einer Aussage und von Handlungen zu verstehen ist, kann ein KI-System generell als vertrauenswürdig eingestuft werden, wenn es sich für den vorgesehenen Zweck immer in der erwarteten Weise verhält. Daraus lässt sich folgern, dass Vertrauenswürdigkeit nachweisbar ist. In Bezug auf künstliche Intelligenz sind somit grundlegend folgende Faktoren relevant:

  • • Die Datengrundlage für den Anwendungsfall muss qualitativ möglichst hochwertig sein.
  • • Die IT-Anwendung und das KI-System sind von KI- und Anwendungsexperten konzipiert sowie manipulationssicher und vertrauenswürdig umgesetzt.
  • • Eine Nachvollziehbarkeit der Ergebnisse wird ermöglicht.
  • • Bei der Entwicklung und Anwendung werden jeweils ethische Grundsätze eingehalten.

Qualität der Eingangsdaten

Grundsätzlich basieren Entwicklung und Einsatz von KI-Anwendungen auf Daten. Diese werden beispielsweise benötigt, um einen KI-Algorithmus für dessen spätere Nutzung zu trainieren. Unter dieser Prämisse ist eine differenzierte Analyse der Daten bezüglich ihres Werts und ihrer Aussagekraft im Sinne der Aufgabenstellung ein essentieller Schritt zur Sicherstellung der Vertrauenswürdigkeit von KI-basierten Anwendungen. Denn die Auswahl der Daten sowie deren Qualität tragen maßgeblich zum Endergebnis bei. Aus diesem Grund sollte es obligatorisch sein, entsprechend Positionen im Unternehmen zu etablieren, die für für die Datengewinnung und -nutzung zuständig sind sowie für die Kontrolle der Umsetzung. So lässt sich ein Standard der Datenqualität sowohl etablieren als auch validieren. Im Einzelnen sind dabei unter anderem Vollständigkeit, Repräsentativität, Nachvollziehbarkeit, Aktualität und Korrektheit zu berücksichtigen.

Vollständige Daten

Die Grundvoraussetzung für Vollständigkeit ist, dass ein Datensatz alle notwendigen Attribute und Inhalte enthält. Kann das nicht garantiert werden, entsteht daraus potentiell das Problem von irreführenden Tendenzen, was letztendlich zu falschen oder diskriminierenden Ergebnissen führt. Dieses Phänomen tritt unter anderem bei Predictive Policing-Systemen auf: Wenn beispielsweise die Datenerhebung zu Kriminalitätsdelikten von vorneherein massiv in definierten Stadtvierteln stattfindet und dies im Kontext mit bestimmten Merkmalen wie Herkunft und Alter geschieht, ergibt sich daraus im Laufe der Zeit, dass dort bestimmte Bevölkerungsgruppen stärker überwacht und durch die häufiger durchgeführten Kontrollen letztendlich per se kriminalisiert werden. Der (vermeintliche) Tatbestand kann jedoch unter Umständen lediglich darauf basieren, dass Vergleichswerte unter Berücksichtigung der gleichen Merkmalen aus anderen Stadtvierteln nicht im adäquaten Maße erhoben wurden. Vollständigkeit bedeutet somit keinesfalls, wahllos möglichst viele Daten zu erfassen – entscheidend ist die sachgerechte Auswahl.

Repräsentative Daten

Repräsentative Daten zeichnen sich dadurch aus, dass sie eine tatsächliche Grundgesamtheit und somit die Realität abbilden, die für die Aufgabenstellung geeignet ist. Sind die Daten nicht repräsentativ, kann daraus ein Bias resultieren. Dieses Phänomen tritt beispielsweise im Recruiting von Führungskräften auf, wenn hier größtenteils Daten aus der Vergangenheit berücksichtigt werden und diese beinhalten, dass in einem bestimmten Zeitrahmen überwiegend Männer in Führungspositionen waren. Mit der Konsequenz, dass die KI-basierte Anwendung daraus folgern müsste, dass Männer für diese Positionen qualifizierter seien. Dies zeigt, dass durch KI-Systeme, etwa aufgrund von Repräsentationsproblemen, nicht zwangsläufig die anvisierte Objektivität erreichbar ist.

Nachvollziehbare Daten

Damit die Datenqualität überprüft werden kann, muss deren Quelle nachvollziehbar sein. Sind diese nicht transparent, können die Daten nicht validiert werden, was sich dann potenziell negativ auf die Datenqualität auswirkt. Für eine bestmögliche Bewertung und Messung der Datenqualität als auch der Qualität der Quellen sowie der Ableitung gezielter Verbesserungsmaßnahmen, müssen Vorgaben definiert werden. Dafür gilt es, die für den Prozess relevanten Kriterien wie beispielsweise Konsistenz oder Einheitlichkeit zu bestimmen. Bei der Prüfung der Qualität sind noch zwei relevante Aspekte zu bedenken: Zum einen kommen Daten oft aus unterschiedlichen Quellen mit verschiedenen Formaten, die vor dem Einsatz auf ihre Utilität verifiziert werden müssen. Zum anderen ist die Nachvollziehbarkeit – gerade im Produktionsumfeld – auch durch die Förderung von qualitativ hochwertigen und sicheren Sensoren abhängig.

Aktuelle Daten

Die grundsätzliche Idee beim Maschinellen Lernen oder KI ist die Extraktion von Wissen aus Daten. Daher muss sichergestellt sein, dass die Daten auch die passenden Informationen und Erfahrungen enthalten. Veraltete Daten können zu falschen Ergebnissen führen, daher sollten sie möglichst aktuell sein.

Beitrag drucken

Vertrauen in künstliche Intelligenz

Akzeptanz schaffen, nur wie?

Unternehmen setzen zunehmend auf KI oder planen, dies künftig zu tun. Doch neben aller Euphorie gibt es bezüglich künstlicher Intelligenz auch Vorbehalte und Unsicherheit. Darum gilt es, die Blackbox der Systeme ein Stück weit aufzubrechen, um die Akzeptanz und auch die Qualität von KI-Ergebnissen zu verbessern. (mehr …)


Das könnte Sie auch interessieren:

Kleine und mittlere Unternehmen haben bei der Umsetzung von Big-Data-Projekten mit Problemen zu kämpfen. So geben in einer Studie des Cloud-Anbieters Ionos 55 Prozent der Befragten an, dass Daten nicht in ausreichender Form vorliegen.‣ weiterlesen

Die 2023er Releases von Autodesk stehen zur Verfügung. Parallel stellt das Systemhaus Contelos überarbeitete Addons vor: Tools4Engineers, Tools4GIS, GeoPhotoXtension und BohrKernXtension sollen Anwendern die Arbeit mit Autodesk-Lösungen erleichtern.‣ weiterlesen

Vecoplan nutzt bereits seit 2008 Fernzugriffsfunktionen für seine Maschinen. Mithilfe des IoT-Spezialisten Ixon hat der Maschinenbauer dieses Angebot ausgeweitet und bietet heute sogar Kameraüberwachung für seine Recyclingmaschinen an.‣ weiterlesen

Im Werkzeugmanagement eröffnet das Kennzeichnen von Assets mit Data Matrix Codes die Möglichkeit, Werkzeuge zu tracken und mit ihren Lebenslaufdaten zu verheiraten.‣ weiterlesen

Google Cloud gab kürzlich die Einführung der beiden Lösungen Manufacturing Data Engine und Manufacturing Connect bekannt. Mit den Tools lassen sich Assets einer Fertigungsumgebung vernetzen, Daten verarbeiten und standardisieren.‣ weiterlesen

Virtuelle multicloudfähige Plattformen können in Fertigungsbetrieben das Fundament bilden, um IT-Infrastruktur und Betriebsabläufe zu modernisieren und effizient zu betreiben. Denn das nahtlose Zusammenspiel von Cloud-Anwendungen, Softwarebereitstellung sowie Remote Work lassen sich mit digitalen Plattformen vergleichsweise einfach und global orchestrieren.‣ weiterlesen

Wibu-Systems ist Anwendungspartner im Projekt KoMiK. Im Mai wurde das Projekt abgeschlossen und der Karlsruher Lizensierungsspezialist hat zusammen mit den Projektpartnern aus Wirtschaft und Wissenschaft Empfehlungen zur Auswahl eines digitalen Kooperationssystems erarbeitet, inklusive eines Screening-Tools.‣ weiterlesen

MES-Lösungen verfügen über unterschiedliche Erweiterungsmodule, etwa für das Qualitätsmanagement. Der Ausbau der Basisfunktionen sorgt jedoch oft für Aufwand. Eine Alternative versprechen Cloudlösungen.‣ weiterlesen

Bei ihrer digitalen Transformation adaptieren Fertigungsunternehmen Technologien wie künstliche Intelligenz, Machine Learning und digitale Zwillinge. Cloud Computung hilft, dafür erforderliche Kapazitäten skaliert bereitzustellen.‣ weiterlesen

Mit mehreren neuen Partnern erweitert der Softwareanbieter ZetVisions sein Partnerangebot. Unter anderem sollen Pikon und People Consolidated das Beratungsangebot des Heidelberger Unternehmens ergänzen.‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige