Compliance Chatbot: Warum Compliance Management nie durch KI abgebildet werden kann

Compliance Management

Das Thema Compliance Chatbot wird im Moment heiß diskutiert: Mit stetig weiterentwickelten Technologien stellt sich zunehmend die Frage, welche Rolle der Mensch in Zukunft im Arbeitsleben spielt. Bereits jetzt übernehmen Maschinen viele handwerkliche Aufgaben in der Fertigungsindustrie. Auch in der digitalen Welt kommen sie zum Einsatz. Das Stichwort hier ist Robotic Process Automation (RPA), also die durch Roboter gesteuerte Prozessautomatisierung.

Doch wie ist es mit anspruchsvollen kognitiven Tätigkeiten, zu der auch das Compliance Management gehört? Hier soll Künstliche Intelligenz (z.B. in Form eines Compliance Chatbot) zum Einsatz kommen bzw. ist bereits in einigen Branchen und unternehmerischen Funktionsbereichen vorzufinden.

In diesem Blog-Beitrag beschäftigen wir uns daher genau mit diesem Thema und mit der Frage, warum Künstliche Intelligenz niemals vollständig Compliance Management in einem Unternehmen abdecken kann.

Grundlegendes zur Künstlichen Intelligenz

künstliche Intelligenz und Compliance Management

Zum Begriff: Künstliche Intelligenz bezeichnet Computer oder Software, die menschliche Intelligenz mechanisiert und all ihre Funktionen und Eigenschaften besitzt.

Es muss hierbei unterschieden werden zwischen starker und schwacher Künstlicher Intelligenz. Schwache KI löst Probleme mithilfe von mathematischen Methoden. Somit ist sie hauptsächlich geeignet für die Lösung konkreter Problemfälle. Starke KI oder auch Superintelligenz wiederum ist dem Menschen ebenbürtig, handelt eigenständig und geht flexibel an Probleme heran.(Quelle: JAAI)

Diese starke KI, die sich mit dem Menschen messen kann, scheitert bis heute, schwache KI hingegen entwickelte sich in den letzten Jahren rasant. Im Folgenden sprechen wir von schwacher KI.

KI-Systeme verstehen Wörter und Zusammenhänge, beherrschen maschinelles Kontextdenken und kennen die persönliche Präferenz der Nutzer. Hier materialisiert sich heute bereits KI am besten, weil dazu großes Hintergrundwissen gehört, welches durch die Digitalisierung elektronisch bereitsteht. Künstliche Intelligenz soll den menschlichen Intellekt so unterstützen, dass der Mensch seine privaten und gesellschaftlichen Ziele schneller, vollständiger und besser erreicht. Damit gleicht KI ein menschliches Defizit aus.

Computer können heute bereits Emotionen erkennen und interpretieren, doch sie werden – Stand heute – selbst keine Emotionen im biologischen Sinn haben (elektrische Funktionen vs. Biochemie/limbisches System). Dies verdeutlichen auch die unterschiedlichen Ausprägungen von Intelligenz.

Intelligenzbegriff

Künstliche Intelligenz: der Intelligenzbegriff im Compliance Management

Es gibt viele verschiedene Formen und Ausprägungen von Intelligenz. Der Mensch verfügt grundsätzlich über jede von diesen, während Künstliche Intelligenz heute nicht fähig ist, emotionale und soziale Intelligenz sowie sensomotorische Fähigkeiten abzubilden.

Ein Bot, der mithilfe von KI funktioniert, kann somit zwar keine Emotionen spüren, hat allerdings trotzdem Charaktereigenschaften, die ihn definieren. So setzen wir das zum Beispiel beim Compliance Management unserer Kunden um:

Charakter des RuleBots für Compliance Management – starke “schwache KI”

Charakter Compliance Chatbot 1

Unser RuleBot ist ein Compliance Chatbot und ist professionell in Bezug auf seine Antworten, geht jedoch offen mit Wissenslücken um und reagiert darauf mit Humor.

Charakter Compliance Chatbot 2

Der Compliance Chatbot hört höflich zu, analysiert und gibt Handlungsoptionen. Die finale Entscheidung bleibt immer bei dem Nutzer.

Charakter Compliance Chatbot 3

Der RuleBot bietet dem Nutzer proaktiv relevante Themen an. Jedoch weiß er, wann der Nutzer Zeit braucht und überfordert diesen nicht.

Charakter Compliance Chatbot 4

Der RuleBot ist weder Komplize noch hebt er den Zeigefinger. Der Nutzer kann alles fragen, ohne dass der Compliance Chatbot ihn bewertet.

So ein Compliance Dialog-Prozess kann wie folgt aussehen:

Schritt 1: Kontext des Nutzers verstehen

Compliance Chatbot: Nutzerkontext verstehen

Schritt 2: autorisierte und reproduzierbare Handlungsempfehlung geben

Compliance Chatbot: Handlungsempfehlung geben

Unsere Erfahrung aus Kundenprojekten, oder: Die Realität hat Divergenzen und ist oft auch widersprüchlich komplex

Warum KI nicht geeignet ist, Compliance Management fehlerfrei abzubilden, zeigt ein anonymisiertes Kundenbeispiel von uns.

In unserem Beispielunternehmen gab es einen Verhaltenskodex, in dem an die Mitarbeiter kommuniziert wurde, dass Hinweisen immer dann nachgegangen wird, wenn ein begründeter Anfangsverdacht besteht. In der Whistleblower-Richtlinie des Unternehmens hingegen war das Legalitätsprinzip festgeschrieben, nach dem ausnahmslos jeder eingehende Hinweis zu untersuchen ist.

Je nach Interpretation, also ob der Verhaltenskodex oder die Richtlinie als Grundlage genommen wird, kann Künstliche Intelligenz hier zu sehr unterschiedlichen Antworten kommen.

Solche Widersprüche zu analysieren und aufzulösen kann nur von Menschen Hand funktionieren durch eine strukturierte, semantische Analyse des Contents. Bereits im Ausgangscontent können so Korrekturen erfolgen, damit der Content widerspruchsfrei bleibt. Insbesondere im Compliance Management ist dies sehr wichtig.

Die Qualität der Inputdaten, gerade im Kontext von Verhaltensregeln, ist entscheidend für die Qualität des maschinellen Outputs, d.h. der Empfehlung an den User. Dies ist insbesondere deswegen der Fall, weil KI hier nicht auf Basis empirischer Daten funktioniert.

Interactive Rule Modeling – unser Prozess für das Compliance Management

Interactive Rule Modeling

Wir haben mit dem Interactive Rule Modeling (IRM®) einen Prozess für das Compliance Management entwickelt, der reproduzierbare, revisionssichere und autorisierte Frage-Antwort-Kombinationen aus Regelungen produziert – sozusagen in einer Mensch-Maschine-Symbiose – und damit die Interpretation der Regelung nicht einer Technologie alleine überlässt. Stattdessen nutzen wir die Technologie, um kontextuell User-Inhalte bereitzustellen. Dabei werden keinerlei personenbezogene Daten erhoben, sodass die Integrität der Daten gewährleistet werden kann.

Es besteht eine Objektivität des Suchergebnisses, welches bei uns nicht durch Verhaltenskontrolle beeinflusst wird.

Wir stellen entscheidungsrelevante Informationen so bereit, dass der Mensch weiterhin die Entscheidungskompetenz und Moralentscheidung behält.

Conclusio

Künstliche Intelligenz

Schwache Künstliche Intelligenz, so erfolgreich sie auch ist als Unterstützung des Menschen, kann nicht das ganze Intelligenzspektrum abbilden, das der Mensch besitzt. Insbesondere moralische Entscheidungen können somit nicht von Maschinen getroffen werden. Sicher ist dennoch, dass die Grenzen zwischen Mensch und Maschine immer mehr verschwimmen und es auf die Orchestrierung beim unternehmerischen Einsatz von KI ankommt. Oder wie Prof. Dr. Klaus Mainzer von der Technischen Universität München (TUM) feststellt: „Daher setze ich vielmehr auf menschliche Urteilskraft, die wir durch wachsende Erfahrung schulen und trainieren können, um zu besseren Ergebnissen im Management zu kommen. Es wird also eine Mensch-Maschine Symbiose geben, bei der wir zwar auch kognitive Aufgaben an autonome Systeme delegieren, aber wir Menschen die Zügel in der Hand behalten sollten.“

In diesem Sinne sprechen Sie uns gerne an, wenn wir Ihnen helfen können, Ihr Compliance Management zukunftsfähig zu gestalten.