Transparente Algorithmen fördern die Umsetzung von KI-Projekten in Unternehmen.
Machine Learning und neuronale Netze mit Deep Learning liefern beinahe wie Magie anmutende Ergebnisse, erlangen diese aber auf eine nicht nachvollziehbare Weise. So entsteht ein eklatanter Mangel an Vertrauen in die Modelle, da Verzerrungen, Überanpassungen oder Fehler im Modell nicht mehr erkannt werden können. Blackbox-Modelle werden mit Daten gefüttert, verarbeiten diese mit Hilfe von Machine-Learning-Algorithmen und spucken am Ende ein Ergebnis aus. Wie vertrauenswürdig, diskriminierend oder schlicht fehlerhaft der Output ist, kann niemand beurteilen. Der Blackbox-Ansatz macht es zudem schwierig bis unmöglich, Vorschriften und Bestimmungen wie die DSGVO einzuhalten.
Der Ansatz einer erklärbaren KI sucht nach Möglichkeiten, die Arbeitsweise der KI-Implementierungen nachvollziehbar und erklärbar zu machen und ein Verständnis für die Funktionsweise zu ermöglichen. Um das volle Potenzial von künstlicher Intelligenz und Machine Learning in Unternehmen auszuschöpfen, ist Vertrauen in die Abläufe der komplexen Algorithmen unbedingt notwendig. Menschen wollen verstehen, wie die künstliche Intelligenz ihre Entscheidungen fällt. […]
Fachartikel für com! professional