Finanzberichte aus dem virtuellen Stegreif

Programme, die auf künstlicher Intelligenz basieren, können schon heute Finanz- und Quartalsberichte sowie andere Finanzdokumente automatisch erstellen. Doch mit Blick auf Sicherheit, Compliance und Haftungsfragen sollten die Unternehmen dabei einiges beachten.

Welche Möglichkeiten bietet künstliche Intelligenz (KI)? Und welche Rolle spielen dabei intelligente Chatbots – Sprachprogramme wie etwa ChatGPT, die maschinelles Lernen einsetzen, um mit Nutzer*innen über Textnachrichten und Bilder zu kommunizieren? Diese Fragen werden derzeit in Fachkreisen intensiv diskutiert. Ein denkbarer Anwendungsbereich, der dabei bislang noch wenig Beachtung findet, ist die Finanzkommunikation. KI-Tools können Unternehmen darin auf verschiedene Weise unterstützen. „KI-Systeme sind in der Lage, Finanzberichte, Quartals- und Geschäftsberichte und andere Finanzdokumente automatisch zu erstellen“, sagt Stefan Weddemar, Senior Manager IT Advisory Financial Services and Sustainability bei Forvis Mazars in Deutschland. Die Vorteile liegen auf der Hand: Der Einsatz der neuen Technologie spart Zeit und verringert das Risiko menschlicher Fehler. „Außerdem kann ein KI-basiertes Programm neben den Berichten auch Dashboards und Grafiken automatisch erstellen“, erklärt Weddemar. „Und eine KI kann dabei helfen, Berichte weiter zu personalisieren.“

Fundierte Entscheidungen auf der Grundlage von ursprünglich unstrukturierten Daten

Typische Einsatzbereiche von KI-Modellen sind bislang Datenanalysen und Trendvorhersagen. Sie analysieren große Mengen von Marktdaten, um darin Trends und Muster zu erkennen. „Auf der Grundlage von zunächst unstrukturierten Daten, die eine KI strukturiert, können Unternehmen vorausschauend agieren und fundierte Entscheidungen treffen“, erläutert Dr. Roman Krepki, Senior Manager Cyber Security and Risk bei Mazars. Und ergänzt: „Indem den Entscheidungsträger*innen frühzeitig Prognosen und Bewertungen zur Verfügung stehen, lassen sich Risiken minimieren.“ Nicht zuletzt können KI-Programme betrügerische Aktivitäten etwa im Lager und in den Warenbewegungen oder von Insiderhandel an den Wertpapiermärkten frühzeitig erkennen und damit verhindern.

„Bei all diesen Themen spielen zwei wichtige Faktoren eine Rolle: das Risikomanagement und die Compliance“, hebt  Weddemar hervor. „Und auch hierbei liefert KI potenziell einen Mehrwert.“ Bei der Risikobewertung zum Beispiel, indem KI-Tools ungewöhnliche Datenmuster oder mögliche Probleme frühzeitig erkennen und so Risiken identifizieren und bewerten. Gleichzeitig kann eine KI die Unternehmen dabei unterstützen, regulatorische Anforderungen zu erfüllen und Gefahren im Zusammenhang mit Finanztransaktionen und der Finanzberichterstattung aufzudecken. „Generell muss jedoch sichergestellt werden, dass KI-Modelle so verwendet werden, dass sie genau diese Compliance-Themen im Unternehmen berücksichtigen“, mahnt Weddemar an. Dabei sind generell folgende Aspekte zu berücksichtigen:

  • Datenschutz und Sicherheit: Mit der Verarbeitung großer Mengen sensibler Daten durch KI-Systeme entstehen Datenschutzrisiken. Unzureichende Sicherheitsmaßnahmen bedeuten potenzielle Datenlecks und möglichen Missbrauch. „Die Frage ist auch: Wie wird ein Hacken des Algorithmus selbst oder des Datenpools wirksam verhindert?“, gibt Krepki zu bedenken.
  • Bias und Diskriminierung: KI-Systeme übernehmen Vorurteile aus den Trainingsdaten, anhand derer sie lernen. Dies führt zu diskriminierenden Ergebnissen und in der Folge zu ungerechten und/oder unethischen Entscheidungen. „Wenn sich Unternehmen für ein fertiges KI-Programm entscheiden, kaufen sie häufig eine Black Box“, sagt der Cyber-Experte. „Die Verantwortlichen sollten sich sinnvollerweise damit beschäftigen, mit welchen Daten sie die KI trainieren wollen, oder, wenn das Tool bereits trainiert worden ist, den Algorithmus justieren, bevor sie das Instrument einsetzen.“
  • Fehlende Transparenz: Microsoft-Gründer Bill Gates hat erst kürzlich darauf hingewiesen, dass den Menschen zwar ein funktionierender Algorithmus zur Verfügung stehe, aber die meisten KI-Modelle, insbesondere tiefe neuronale Netze, in ihrer Arbeitsweise nur schwer oder gar nicht zu verstehen seien. „Dies kann die Transparenz und Nachverfolgbarkeit von Entscheidungen beeinträchtigen“, warnt Weddemar. „Unternehmen sollten daher sicherstellen, dass KI-Entscheidungen erklärbar und transparent sind – insbesondere, wenn sie Auswirkungen auf Einzelpersonen haben.“
  • Ethische Herausforderungen: KI kann in komplexen Situationen Entscheidungen treffen, die ethisch schwer zu rechtfertigen sind. Ein Beispiel dafür: Systeme, die Autos autonom fahren lassen – und im Fall eines nicht mehr verhinderbaren Aufpralls sich etwa zwischen der Kollision mit einem Fußgänger oder Radfahrer „entscheiden“ müssen. Auch müssen Antidiskriminierungs- und Gleichstellungsgesetze berücksichtigt werden. Tests in regelmäßigen Abständen stellen sicher, dass das System keine unfairen oder diskriminierenden Entscheidungen trifft, die auf Vorurteilen in den Trainingsdaten beruhen. „Mit dem Einsatz einer KI sollte daher geklärt werden, ob man Entscheidungen der KI vollständig überlässt und an welchen Stellen Plausibilitätsprüfungen stattfinden“, so Krepki.
  • Haftung und rechtliche Fragen: Die Frage der Haftung im Falle von KI-Fehlern oder Unfällen ist oft unklar geregelt. Rechtlich stellt das eine Herausforderung dar. In diesem Zusammenhang stellen sich häufig auch Fragen des geistigen Eigentums. Das gilt vor allem dann, wenn Organisationen externe KI-Modelle oder Datenquellen verwenden. „In dem Fall muss sichergestellt sein, dass die erforderlichen Lizenzen und Erlaubnisse vorliegen“, sagt Weddemar.
  • Regulatorische Unsicherheit: Das rasche Tempo der KI-Entwicklung hat dazu geführt, dass Regulierungsbehörden oft Schwierigkeiten haben, Schritt zu halten. Das führt zu Unsicherheiten in Bezug auf die rechtlichen Rahmenbedingungen.

„All diese Aspekte müssen angemessen berücksichtigt werden. Dazu müssen entsprechende Vorgaben und Anforderungen innerhalb eines Unternehmens verabschiedet und implementiert werden, die die geltenden regulatorischen und ethischen Anforderungen berücksichtigen“, empfiehlt Stefan Weddemar. Organisationen, die KI-Programme verwenden, sind daher gut beraten, ein entsprechendes Internes Kontrollsystem (IKS) aufzubauen. „Nicht zuletzt sollte es eine Risikobewertung der verwendeten KI-Systeme geben. Und es muss sichergestellt sein, dass die beteiligten Mitarbeiter*innen hinreichend geschult werden in der Anwendung der Technologie“, sagt der IT-Experte. Er gibt Firmen, die KI-Modelle nutzen, daher einen Ratschlag mit auf den Weg: „Halten Sie genaue Aufzeichnungen über Ihre KI-Systeme, die Trainingsdaten, Modelle und Entscheidungen parat. Im Falle des Falles sind Sie dann in der Lage, bei der Beantwortung von Fragen oder Untersuchungen Nachweise zu liefern.“

 

Board Briefing

Want to know more?