Immer mehr Unternehmen verlassen sich auf Modelle der künstlichen Intelligenz und des maschinellen Lernens. Doch wie kann man sichergehen, dass diese Modelle vertrauenswürdig sind?
Künstliche Intelligenz (KI) weckt die Erwartung, dass Maschinen dem Menschen durch eine automatisierte Entscheidungsfindung zu besseren Erkenntnissen verhelfen. Josh Parenteau, Director of Market Intelligence von Tableau, erläuterte kürzlich, wie künstliche Intelligenz und Machine Learning ganz neue Sichtweisen ermöglichen und so „dazu beitragen, Erkenntnisse aufzudecken, die zuvor im Verborgenen lagen“. Gartner-Studien legen nahe, dass bis 2020 „85 % aller CIOs KI-Pilotprogramme einführen, die teils auf Zukäufen, teils auf Eigenentwicklung und teils auf Outsourcing basieren werden“. Doch wenn sich Unternehmen immer stärker auf Machine-Learning-Modelle verlassen, stellt sich die Frage: Wie kann der Mensch sicherstellen, dass die automatischen Empfehlungen überhaupt vertrauenswürdig sind?
Noch ist es bei zahlreichen Machine-Learning-Anwendungen nicht möglich, die Algorithmen und Logiken nachzuvollziehen, auf denen Entscheidungen und Empfehlungen beruhen. Daher sind Unternehmen, die erste KI-Programme testen, zurecht skeptisch, ob diese auf allgemeine Akzeptanz stoßen werden. In den Worten von Adrian Weller, Senior Research Fellow für Machine Learning an der Universität Cambridge, „gilt Transparenz oft als wesentliche Voraussetzung für eine effektive Bereitstellung intelligenter Systeme in der Praxis“. Dies betrifft auch das Machine Learning. Die Gründe dafür sind vielfältig. Vor allem soll sichergestellt werden, dass die Modelle wie vorgesehen funktionieren. Außerdem sollen Benutzer Vertrauen in diese Modelle fassen, damit die Hemmschwelle sinkt, auf automatischen Vorschlägen fußende Entscheidungen zu fällen.
Diese Transparenzanforderungen haben zum Aufstieg der sogenannten „erklärbaren künstlichen Intelligenz“ (Explainable Artificial Intelligence) geführt. Damit ist die Praxis gemeint, transparente Einblicke in Machine-Learning-Modelle und damit ein Verständnis von deren Funktionsweise zu ermöglichen. Entscheidungsträger wollen hinterfragen können, warum ein Modell eine bestimmte Aussage trifft, wie verlässlich diese ist und welche Aussage das Modell unter anderen Ausgangsbedingungen treffen würde – ganz so, wie eine Führungskraft einen menschlichen Experten ausfragen würde, wenn ein wichtiger Entschluss gefasst werden soll. „Entscheidungsträger sind zurecht skeptisch, wenn von einer KI oder durch Machine Learning gelieferte Antworten nicht erklärbar sind“, merkt Richard Tibbetts, Product Manager für KI bei Tableau, an. „Analytics und KI sollten den menschlichen Sachverstand ergänzen, aber keineswegs vollständig ersetzen.“
Viele Führungskräfte – besonders in Branchen, die mit hohen Risiken konfrontiert sind, etwa im Finanzsektor oder in der Pharmaindustrie – verlangen, dass ihre Data-Science-Teams besser erklärbare Modelle anwenden. Außerdem wird erwartet, dass die Modellstruktur anhand der Dokumentation oder eines Protokolls nachvollzogen werden kann. Data Scientists haben also die Aufgabe, den Geschäftsanwendern diese Modelle zu erklären. Folgerichtig stützen sie sich auf BI-Plattformen, die ein interaktives Untersuchen und Prüfen von Schlussfolgerungen ermöglichen.
Die Vorteile von künstlicher Intelligenz und Machine Learning sind in der Geschäftswelt mittlerweile weithin anerkannt. Doch damit KI wirklich etwas bewegen kann, muss sie vertrauenswürdig sein. KI-Aussagen bedürfen einer nachvollziehbaren, möglichst einfachen Begründung, und KI muss imstande sein, aufkommende Fragen dynamisch zu beantworten – mit dem Ziel, Daten für Menschen verständlicher zu machen.