KI in der Produktion: Ist KI Ihnen eine Erklärung schuldig?
KI findet in der Produktion immer mehr Verbreitung, weil sich damit auf Maschinen-, Prozess- und Organisationsebene Effizienzgewinne realisieren lassen. Dabei kommen vermehrt KI-Verfahren wie neuronale Netze zum Einsatz. Diese können einerseits besonders gut komplexe Zusammenhänge erlernen, andererseits sind sie aber nicht in der Lage, Erklärungen mitzuliefern, warum sie eine bestimmte Entscheidung treffen. Das ist eine typische “Black Box” Eigenschaft.
Die Nachvollziehbarkeit von Entscheidungen ist aber gerade in der Produktion von großer Bedeutung, weil Fehlentscheidungen zu hohen Kosten oder schlimmstenfalls zu Gefahrensituationen für Menschen führen können. Um eine KI effektiv verbessern und Fehler beheben zu können, muss eine KI ihre Ergebnisse daher für Anwender:innen verständlich aufbereiten.
Angelehnt an die im März 2021 veröffentlichte Studie “Erklärbare KI in der Praxis” des KI-Fortschrittzentrums in der Studienreihe “Lernende Systeme” geben wir Ihnen in diesem Artikel einen Überblick, wie Sie passende Erklärungsmethoden für Ihren KI Use Case finden können.
Warum sollte KI in der Produktion erklärbar sein?
Jedes KI-Verfahren gehört zu einer von zwei Klassen: White Box oder Black Box. In einem White Box Verfahren sind alle Vorgänge transparent nachvollziehbar, während für ein Black Box Verfahren Zusatzaufwand betrieben werden muss, um seine Ergebnisse zu verstehen. Gerade die sehr populären neuronalen Netze gehören zu den Black Box Verfahren und lassen sich nicht ohne Weiteres in die Karten schauen.
In einem wirtschaftlich oder sicherheitstechnisch kritischen Anwendungskontext ist das ein Problem. Hier benötigen Unternehmen KI-Systeme, deren Ergebnisse nachvollziehbar sind. Laut einer Studie vom IIT Berlin ist Erklärbarkeit in der Produktion von großer Bedeutung. Und bei einer Bitkom-Umfrage im Jahr 2020 sprachen sich 85% der Teilnehmer:innen für eine gründliche Prüfung von KI-Systemen in Deutschland aus. Erklärbare KI kann also die Hürde für den erfolgreichen Einsatz von KI in der Produktion stark senken.
Im Produktionseinsatz kann Erklärbarkeit zudem dabei helfen, das erlernte KI-Wissen und die Wirkungsketten im Anwendungsfeld herauszulesen und für Anwender:innen nutzbar zu machen. Das kann zu völlig neuartigen Verbesserungsmöglichkeiten führen.
Die richtige Erklärungsmethode finden
Angenommen Ihr KI Use Case erfordert, dass die KI Ergebnisse nicht nur genau, sondern auch nachvollziehbar sein müssen. Das Testen verschiedener KI White Box und Black Box Verfahren zeigt nun, dass ein neuronales Netz hinsichtlich Genauigkeit nicht zu schlagen ist. Es muss also eine ergänzende Erklärungsmethode her, die Ergebnisse des neuronalen Netzes verständlich aufbereitet.
Die Auswahl möglicher Erklärungsmethoden ist groß. Doch es gibt eine Systematik, mit der Ihre KI-Entwickler:innen die besten Kandidaten schnell eingrenzen können. Im ersten Schritt werden alle Methoden herausgefiltert, deren Anforderungen an die Art der verarbeiteten Daten (Zeitreihendaten, räumliche Daten, etc.) oder deren Darstellungsmöglichkeiten von Erklärungen (Gewichtung einzelner Einflussgrößen, Einflusswahrscheinlichkeit bestimmter Kombinationen von Einflussgrößen, etc.) nicht zum Use Case passen.
Die verbleibenden Kandidaten werden in Schritt 2 prototypisch umgesetzt und anhand Ihrer Praxistauglichkeit bewertet. Hierzu werden sowohl objektive Leistungskennzahlen herangezogen als auch das Feedback von Anwendungsexpert:innen eingeholt. Letzte Gewissheit schaffen schließlich Nutzerstudien im tatsächlich Einsatzfall. Diese Schritte können zeit- und kostenintensiv sein. Sie minimieren aber das deutlich schmerzlichere Risiko, dass teuer entwickelte KI zwar technisch funktioniert, aber im Tagesgeschäft keinen Mehrwert erzeugen kann.
Erklärbarkeit als Schlüsselfaktor menschzentrierter KI
Wenn KI neu eingeführt wird in ein Umfeld, in der Menschen die Hauptrolle spielen, entscheiden diese Menschen in der Regel darüber, ob die KI jemals ihren Nutzen entfalten kann. Im schlimmsten Fall wird KI wie ein Störenfried behandelt und im übertragenen Sinne “gemobbt”, d.h. ignoriert oder sogar sabotiert. Um einem möglichen Konflikt vorweg zu greifen, kann es sinnvoll sein, menschzentrierte KI in die Produktion einzuführen. Bei menschzentrierter KI ist Erklärbarkeit von KI-Ergebnissen ein zentraler Faktor.
Unserer Erfahrung nach übernehmen Nutzer:innen keine Verantwortung für Arbeitsresultate, die in Zusammenarbeit mit einer KI entstanden sind, deren Funktionsweise sie nicht verstehen oder vollständig kontrollieren können. Der Verständnisbedarf ist dabei häufig rollenabhängig und stellt damit unterschiedliche Ansprüche an die Erklärbarkeit. Wir schließen uns hier der Empfehlung der Studie “Menschzentrierte KI-Anwendungen in der Produktion” des KI-Fortschrittzentrums an, Anwender:innen bereits in der Konzeptphase mit einzubinden, damit ihre Bedürfnisse an die KI-Anwendung frühzeitig angemessen berücksichtigt werden.
Fazit
Ob eine KI ihren Nutzer:innen eine Erklärung schuldig ist, hängt sicherlich von den konkreten Umständen ab. Es ist aber davon auszugehen, dass das Erklärungsbedürfnis von Menschen steigt, je tiefer die KI-Funktionalität in den Arbeitsalltag eingreift und je höher ihr Einfluss auf Arbeitserfolg und Arbeitssicherheit ist. Die Entwicklung und Einführung menschzentrierter KI ist daher ein Schlüsselthema für die nachhaltige Wertschöpfung durch KI in der Produktion und steht bei aiXbrain ganz oben auf der Liste.