Eine offene Armbanduhr wird repariert

„Explainable AI“, also verständliche künstliche Intelligenz ist ein Konzept, um KI-gesteuerte Entscheidungen besser nachvollziehen zu können. Dadurch wird auch der ethische Aspekt von KI gestärkt.

Künstliche Intelligenz gehört mittlerweile zum Unternehmensalltag. Ob man selbst KI einsetzt oder aber über smarte Algorithmen von Youtube, Google oder Siri brütet – KI ist gekommen, um zu bleiben.

Künstliche Intelligenz hat ein Black Box-Problem

Wenn es um KI-Herausforderungen geht, so kommt man nicht darum herum, dass viele Nutzer die „Black Box“ KI kritisch betrachten. Immer häufiger werden die Logiken von Algorithmen in Frage gestellt. Tatsächlich gibt es viele Vermutungen, dass Algorithmen mitverantwortlich für die Verbreitung von Fake News sind, unbewusste Vorurteile verstärken können und dadurch unter anderem auch diskriminieren können. Wenn beispielsweise plötzlich ein Algorithmus dafür sorgt, dass Menschen keinen Kredit erhalten, weil sie in einer bestimmten Nachbarschaft wohnen, dann ist dies ethisch und rechtlich bedenklich.

Kurzum: der Ruf von KI ist trotz der vielen positiven Einsatzmöglichkeiten nicht der Beste.

Als „Black Box“ bezeichnet man im wissenschaftlichen Bereich Systeme, deren Input und Output bekannt ist, aber nicht, was „in der Box“ mit dem Input passiert, um den Output zu generieren. Das menschliche Gehirn ist beispielsweise als Black Box zu verstehen, da teilweise eben nicht klar ist, wie unsere Gedanken, Ideen und Schlussfolgerungen konkret entstehen.

Black Box Grafische Darstellung

Transparenz schafft Vertrauen

Das liegt nicht zuletzt daran, dass gut funktionierende KI teilweise selbstlernend ist. Gerade der Vorteil in Anwendungen, die nicht in jedem Detail von Programmierern angeleitet werden, sorgt dafür, dass die Ergebnisse nicht immer so klar nachzuvollziehen sind. Und gerade das wird oft in Bereichen angewandt, in denen Vertrauen eine große Rolle spielt. So sind komplexe KI-Anwendungen vorwiegend im Finanzsektor, Healthcare, Datenschutz, aber auch bei hochsensiblen Themen wie autonomes Fahren zu finden. Die Anwendungsbereiche und Vorteile von KI sind enorm, doch wenn ungenau ist, was und wie beispielsweise KI entscheidet, um ein Auto zu steuern, dann sinkt das Vertrauen in die Anwendung.

XAI (Explainable Artificial Intelligence) soll derweil dafür sorgen, dass KI-Entscheidungen wieder nachvollziehbarer sind.

Was ist XAI (Explainable Artificial Intelligence)?

XAI ist ine KI-Anwendung, die den Anwendern Möglichkeiten bietet, einzusehen, was zu einer Entscheidung geführt hat. Dabei werden aus den traditionellen „Black Box-Modellen“ sogenannte „White Box-Modelle“, die beispielsweise durch Visualisierung die verschiedenen KI-Prozesse verständlich darstellen.

Welche Vorteile hat XAI?

  • Durch die Transparenz können Sicherheitsaspekte sowie risikoreduzierende Maßnahmen berücksichtigt werden.
  • Nachvollziehbarkeit stärkt das Vertrauen.
  • Die ethischen Grundlagen von Entscheidungen können hinterfragt und gegebenenfalls angepasst werden, um unsichtbare Vorurteile zu reduzieren.
  • Gerade im Compliance-Bereich ist es teilweise notwendig, Entscheidungen klar nachvollziehbar dokumentieren zu können.
  • Transparenz ermöglicht auch, die Anwendung zu optimieren, da sichtbar ist, wo Modelle eventuell Fehlentscheidungen fällen.
  • Durch einen Einblick in die Entscheidungspfade können weitere Insights erlangt werden.

Weitere Informationen:

PWC „XAI“

Dilmegani, Cem, AIMultiple (2021) „Explainable AI (XAI) in 2021: Guide to enterprise-ready AI“


Nutzen Sie smarte Datenanalysen, KI und Business Intelligence für Ihr Unternehmen. Erfahren Sie auf unserer Infoseite mehr zum Einsatz von Power BI von Microsoft und wie Sie es für Ihre Zwecke einsetzen können.

New call-to-action