Künstliche Intelligenz zeichnet sich durch die Fähigkeit aus, Probleme zu lösen. Diese Fähigkeit ist nahezu universell, weshalb KI auch in immer mehr Unternehmen angewendet wird. Die Landesregierung von Baden-Württemberg setzt seit 2019 daher bei der Digitalisierung einen Schwerpunkt auf die Künstliche Intelligenz und investiert in KI-Projekte und -Modellvorhaben, um Sprunginnovationen aus Baden-Württemberg voranzutreiben. Dabei ist die Frage der Erklärbarkeit von KI (englisch: Explainable AI, XAI) von zentraler Bedeutung. Denn nur wenn Unternehmen und Menschen den Berechnungen und Vorhersagen von KI-Algorithmen vertrauen, wird sich KI auch weitläufig in Unternehmen durchsetzen können.

Ein Beispiel dafür bietet die sogenannte Predictive Maintenance. Sie basiert in der Regel auf gleich mehreren KI-Werkzeugen wie der Mustererkennung, der Bild und Tonverarbeitung sowie der Aktionsplanung und Optimierung: Sensoren überwachen den Zustand und die Produktion einer Maschine. Die gesammelten Daten werden dabei kontinuierlich auf Muster untersucht, die auf mögliche Schäden deuten. Werden solche, vom gewünschten Zustand abweichende Muster erkannt, empfiehlt die KI eine vorausschauende Wartung der Maschine, um Störungen zu vermeiden. Die Entscheidung darüber trifft immer der Mensch. Würde der KI hier einfach blind vertraut, könnte das unnötige Kosten nach sich ziehen und im schlimmsten Fall sogar Haftungsfragen aufwerfen, etwa wenn die Wartung zu Unrecht angesetzt wurde und Schäden verursacht. Die Entscheidungsfindung, Berechnung bzw. Prognose der KI muss daher erklärbar, nachvollziehbar und transparent sein.

Je besser die KI-Prognose, desto undurchsichtiger ist meist der KI-Lösungsweg

Der Begriff Künstliche Intelligenz wird oft gleichgesetzt mit den Begriffen Machine Learning und Deep Learning. Machine Learning ist jedoch lediglich ein Teilgebiet der KI und Deep Learning wiederum ein Teilgebiet von Machine Learning. Die klassische KI arbeitet beispielsweise mit Expertensystemen, die auf Entscheidungsbäumen beruhen. Die KI-Anwendung folgt dabei Regeln, die ihr durch die Programmierung fest vorgegeben wurden. Solche Anwendungen eignen sich bereits gut für Vorhersagen, stoßen jedoch immer dann an Grenzen, wenn die Zahl an Variablen zu groß wird, etwa durch das Eintreten zuvor nicht bedachter Ereignisse.

Um dieses Problem zu umgehen, werden beim Machine Learning dem Algorithmus keine festen Regeln vorgegeben. Dem Algorithmus wird lediglich ein Ziel gestellt, dass er erreichen soll, etwa auf MRT-Lungenbildern Krebserkrankungen erkennen. Anhand einer großen Menge von Daten bzw. MRT-Bildern trainiert der Algorithmus dann seine Fähigkeit, entsprechende Muster zu erkennen, er lernt also.

Beim Deep Learning sucht sich der Algorithmus dagegen eigenständig einen Weg zur Lösung und nutzt dafür sogenannte neuronale Netze. Die Bildmerkmale im Beispiel der MRT-Aufnahmen werden im Deep Learning nicht mehr vorgegeben. An welchen Eigenschaften der Muster der Algorithmus die Krebsdiagnose festmacht, wird ihm selbst überlassen. Der Vorteil dieses Vorgehens liegt darin, dass durch Deep Learning auch Lösungswege gefunden werden, die den Experten bislang entgingen. Die Prognosen, die durch Deep Learning erreicht werden, sind meist präziser und prognosemächtiger als die von mit Machine Learning trainierten Anwendungen. Die Selbstständigkeit der Lösungsfindung ist aber zugleich ein Problem für die Ärztin oder den Arzt: Um Therapien zu veranlassen, müssen sie nachvollziehen können, wie die KI zu ihrer Diagnose gekommen ist. Können sie das nicht, blicken sie in eine sogenannte „Black Box“. Daher ist nicht nur das Ergebnis der KI-Analyse entscheidend, sondern auch der Weg zur Lösung. Die KI ist damit zur Rechenschaft über ihre Entscheidungsfindung zu verpflichten.

Die Erklärbarkeit von KI vermeidet betrügerische und vorurteilsbehaftete KI

KI-Algorithmen werden nicht nur in der Medizin oder Produktion eingesetzt. Auch im Bereich Human Resources gibt es immer mehr KI-Anwendungen. Sie werten beispielsweise Bewerbungen aus und helfen so bei der Entscheidung für die richtigen Kandidaten. Werden für solche auf Machine Learning beruhende Anwendungen ungeeignete Trainingsdaten verwendet, können sich Stereotypen einschleichen, sodass Menschen womöglich aufgrund ihrer Herkunft, ihres Geschlechts oder anderen Vorurteilen ausgeschlossen werden, obwohl sie sich tatsächlich sehr gut für die Stelle eignen.

Bei Black-Box-Verfahren wie dem Deep Learning kann es zudem vorkommen, dass der Algorithmus sozusagen mogelt, um rascher zum gewünschten Ergebnis zu kommen. Der Algorithmus kann beispielsweise beim Erkennen von Bildern entdecken, dass lediglich die Meta-Daten des Bildes ausgelesen werden muss, um angeben zu können, was auf dem Bild zu sehen ist. Um diesen „Betrug“ aufzudecken, nutzen Experten Heat Maps, die angeben, welche Bereiche des Bildes der Algorithmus untersucht hat. Beschäftigte sich die KI mit den Konturen des auf dem Bild zu sehenden Objekts, Menschen oder Tieres, wäre das korrekte Ergebnis auch korrekt zustande gekommen. Ist diese Beschäftigung nicht nachzuweisen, besteht der Verdacht, dass die KI betrogen hat.

Von der Black Box zur erklärbaren KI

Ein solches Vorgehen wird als Ex-post-Erklärung bezeichnet. Die Erklärung des Lösungsweges erfolgt dabei nachträglich durch eine Interpretation der Algorithmen. Der Vorteil dieser Methode ist, dass sie nicht Teil der jeweiligen KI-Anwendung sein muss, sondern zusätzlich hinzugefügt wird. Das verschafft Entwicklern und Entwicklerinnen mehr Freiräume. Die Erklärbarkeit der KI setzt dabei an bestimmten Daten des Modells an, mit dem die KI operiert und erklärt, auf welchen Daten die Lösung der KI beruht. Dieses Verfahren wird auch als Datenerklärbarkeit bezeichnet.

Derzeit häufiger eingesetzt wird jedoch die sogenannte Modellerklärbarkeit. Sie erklärt, wie das Modell, auf dem die KI-Berechnung beruht, als Ganzes funktioniert. Eine Methode dafür ist beispielsweise LIME (local interpretable model-agnostic explanations). Dabei wird ein zweites, transparentes Ersatzmodell (Surrogat) erstellt, mit dessen Hilfe der Entscheidungsweg nachvollzogen werden kann. Das Surrogat-Modell operiert dabei mit stark vereinfachten Rekonstruktionen, was die rasche Nachvollziehbarkeit der Entscheidungsfindung erleichtert.

Erklärbare KI für den Mittelstand

KI-Anwendungen werden in den kommenden Jahren in nahezu allen Branchen und Bereichen Einzug halten. In einer 2019 durchgeführten Umfrage nannten weit über 50 Prozent der befragten Expertinnen und Experten aus Forschungs- und Transferinstitutionen sowie Verbänden mangelnde Akzeptanz der KI-gesteuerten Entscheidungsfindung als Hemmnis für die KI-Nutzung im Mittelstand. Erklärbare KI bietet dafür Lösungsansätze für dieses Hemmnis und trägt so dazu bei, dass gerade auch kleine und mittlere Unternehmen von den Chancen profitieren, die sich durch die KI für sie eröffnen.