Warum Compliance Management nie durch KI abgebildet werden kann

Mit stetig weiterentwickelten Technologien stellt sich auch zunehmend die Frage, welche Rolle der Mensch in Zukunft im Arbeitsleben spielt. Bereits jetzt werden viele handwerkliche Aufgaben in der Fertigungsindustrie von Maschinen übernommen. Auch in der digitalen Welt kommen sie zum Einsatz. Das Stichwort hier ist Robotic Process Automation (RPA), also die durch Roboter gesteuerte Prozessautomatisierung.

Doch wie ist es mit anspruchsvollen kognitiven Tätigkeiten, zu der auch das Compliance Management gehört? Hier soll Künstliche Intelligenz (KI) zum Einsatz kommen bzw. ist bereits in einigen Branchen und unternehmerischen Funktionsbereichen vorzufinden.

In diesem Blog-Beitrag beschäftigen wir uns daher genau mit diesem Thema und mit der Frage, warum Künstliche Intelligenz niemals vollständig Compliance Management in einem Unternehmen abdecken kann.

Grundlegendes zur Künstlichen Intelligenz

künstliche intelligenz und compliance management

Zum Begriff: Künstliche Intelligenz bezeichnet Computer oder Software, die menschliche Intelligenz mechanisiert und all ihre Funktionen und Eigenschaften besitzt.

Es muss hierbei unterschieden werden zwischen starker und schwacher Künstlicher Intelligenz. Schwache KI löst Probleme mithilfe von mathematischen Methoden, die ihr zur Verfügung gestellt werden, und ist hauptsächlich geeignet für die Lösung konkreter Problemfälle. Starke KI oder auch Superintelligenz wiederum ist dem Menschen ebenbürtig, handelt eigenständig und geht flexibel an Probleme heran.(Quelle: JAAI)

Diese starke KI, die sich mit dem Menschen messen kann, scheitert bis heute, schwache KI hingegen entwickelte sich in den letzten Jahren rasant. Im Folgenden sprechen wir von schwacher KI.

KI-Systeme verstehen Wörter und Zusammenhänge, beherrschen maschinelles Kontextdenken und kennen die persönliche Präferenz der Nutzer. Hier materialisiert sich heute bereits KI am besten, weil dazu großes Hintergrundwissen gehört, welches durch die Digitalisierung elektronisch bereitsteht. Künstliche Intelligenz soll den menschlichen Intellekt so unterstützen, dass der Mensch seine privaten und gesellschaftlichen Ziele schneller, vollständiger und besser erreicht. Damit gleicht KI ein menschliches Defizit aus.

Computer können heute bereits Emotionen erkennen und interpretieren, doch sie werden – Stand heute – selbst keine Emotionen im biologischen Sinn haben (elektrische Funktionen vs. Biochemie/limbisches System). Dies verdeutlichen auch die unterschiedlichen Ausprägungen von Intelligenz.

Intelligenzbegriff

künstliche intelligenz intelligenzbegriff

Es gibt viele verschiedene Formen und Ausprägungen von Intelligenz. Der Mensch verfügt grundsätzlich über jede von diesen, während Künstliche Intelligenz heute nicht fähig ist, emotionale und soziale Intelligenz sowie sensomotorische Fähigkeiten abzubilden.

Ein Bot, der mithilfe von KI funktioniert, kann somit zwar keine Emotionen spüren, hat allerdings trotzdem Charaktereigenschaften, die ihn definieren. So setzen wir das zum Beispiel beim Compliance Management unserer Kunden um:

Charakter des RuleBots für Compliance Management – starke “schwache KI”

charakter bot 1

Unser RuleBot zum Beispiel ist professionell in Bezug auf seine Antworten, geht jedoch offen mit Wissenslücken um und reagiert darauf mit Humor.

charakter bot 2

Er hört höflich zu, analysiert und gibt Handlungsoptionen. Die finale Entscheidung wird immer dem Nutzer überlassen.

charakter bot 3

Der RuleBot bietet dem Nutzer proaktiv relevante Themen an, jedoch weiß er, wann der Nutzer Zeit braucht und überfordert diesen nicht.

charakter bot 4

Der RuleBot ist weder Komplize noch hebt er den Zeigefinger. Der Nutzer kann alles fragen, ohne dafür bewertet zu werden.

So ein Compliance Dialog-Prozess kann wie folgt aussehen:

Schritt 1: Kontext des Nutzers verstehen

Schritt 2: autorisierte und reproduzierbare Handlungsempfehlung geben

Unsere Erfahrung aus Kundenprojekten, oder: Die Realität hat Divergenzen und ist oft auch widersprüchlich komplex

Warum KI nicht geeignet ist, Compliance Management fehlerfrei abzubilden, zeigt ein anonymisiertes Kundenbeispiel von uns.

In unserem Beispielunternehmen gab es einen Verhaltenskodex, in dem an die Mitarbeiter kommuniziert wurde, dass Hinweisen immer dann nachgegangen wird, wenn ein begründeter Anfangsverdacht besteht. In der Whistleblower-Richtlinie des Unternehmens hingegen war das Legalitätsprinzip festgeschrieben, nach dem ausnahmslos jeder eingehende Hinweis zu untersuchen ist.

Je nach Interpretation, also ob der Verhaltenskodex oder die Richtlinie als Grundlage genommen wird, kann Künstliche Intelligenz hier zu sehr unterschiedlichen Antworten kommen.

Solche Widersprüche zu analysieren und aufzulösen kann nur von Menschen Hand funktionieren durch eine strukturierte, semantische Analyse des Contents. Bereits im Ausgangscontent können so Korrekturen erfolgen, damit der Content widerspruchsfrei bleibt. Insbesondere im Compliance Management ist dies sehr wichtig.

Die Qualität der Inputdaten, gerade im Kontext von Verhaltensregeln, ist entscheidend für die Qualität des maschinellen Outputs, d.h. der Empfehlung an den User. Dies ist insbesondere deswegen der Fall, weil KI hier nicht auf Basis empirischer Daten funktioniert.

Interactive Rule Modeling

interactive rule modeling im compliance management

Wir haben mit dem Interactive Rule Modeling (IRM®) einen Prozess für das Compliance Management entwickelt, der reproduzierbare, revisionssichere und autorisierte Frage-Antwort-Kombinationen aus Regelungen produziert – sozusagen in einer Mensch-Maschine-Symbiose – und damit die Interpretation der Regelung nicht einer Technologie alleine überlässt. Stattdessen nutzen wir die Technologie, um kontextuell User-Inhalte bereitzustellen. Dabei werden keinerlei personenbezogene Daten erhoben, sodass die Integrität der Daten gewährleistet werden kann.

Es besteht eine Objektivität des Suchergebnisses, welches bei uns nicht durch Verhaltenskontrolle beeinflusst wird.

Wir stellen entscheidungsrelevante Informationen so bereit, dass der Mensch weiterhin die Entscheidungskompetenz und Moralentscheidung behält.

Conclusio

künstliche intelligenz für compliance management

Schwache Künstliche Intelligenz, so erfolgreich sie auch ist als Unterstützung des Menschen, kann nicht das ganze Intelligenzspektrum abbilden, das der Mensch besitzt. Insbesondere moralische Entscheidungen können somit nicht von Maschinen getroffen werden. Sicher ist dennoch, dass die Grenzen zwischen Mensch und Maschine immer mehr verschwimmen und es auf die Orchestrierung beim unternehmerischen Einsatz von KI ankommt. Oder wie Prof. Dr. Klaus Mainzer von der Technischen Universität München (TUM) feststellt: „Daher setze ich vielmehr auf menschliche Urteilskraft, die wir durch wachsende Erfahrung schulen und trainieren können, um zu besseren Ergebnissen im Management zu kommen. Es wird also eine Mensch-Maschine Symbiose geben, bei der wir zwar auch kognitive Aufgaben an autonome Systeme delegieren, aber wir Menschen die Zügel in der Hand behalten sollten.“

In diesem Sinne sprechen Sie uns gerne an, wenn wir Ihnen helfen können, Ihr Compliance Management zukunftsfähig zu gestalten.