Interview Philipp Schwaab, Chief AI Officer der Helaba-Gruppe

„Wann kontrolliert der Mensch, wie und was passiert?“

Philipp Schwaab wurde vor Jahresfrist zum Chief AI Officer der Helaba und damit zum Leiter der neuen Einheit AI & Digital Innovation ernannt. Im Interview spricht er über Szenarien und Gefahren beim Einsatz von künstlicher Intelligenz und insbesondere KI-Agenten.

„Wann kontrolliert der Mensch, wie und was passiert?“

Im Interview: Philipp Schwaab

„Wann kontrolliert der Mensch, wie und was passiert?“

Der Chief AI Officer über Vorteile und Fallstricke beim Einsatz von künstlicher Intelligenz und KI-Agenten innerhalb der Helaba

Philipp Schwaab wurde vor Jahresfrist zum Chief AI Officer der Helaba und damit zum Leiter der neuen Einheit AI & Digital Innovation ernannt. Im Interview spricht er über Szenarien und Gefahren beim Einsatz von künstlicher Intelligenz und insbesondere KI-Agenten.

Herr Schwaab, Sie sind seit einem Jahr Chief AI Officer bei der Helaba. Was macht diese Rolle bei einer Institution wie einer Landesbank aus?

Vor der Einführung des Themas künstliche Intelligenz in den Konzern wurde eine zentrale Aufhängung in der Konzernsteuerung der Helaba geschaffen, die gleichzeitig die Möglichkeit dezentraler Implementierung von KI-Innovationen ermöglicht, auch mit Blick auf die Konzerntöchter. Mit Rückendeckung von Board und CEO wurde die Rolle des Chief AI Officer etabliert – und so dem Thema KI das nötige Gewicht gegeben. In der neuen Einheit AI & Digital Innovation verankern wir die grundlegenden Leitplanken, die auf unserer Digitalstrategie basieren.

Welchen Ansatz verfolgt die neue Einheit AI & Digital Innovation?

Im März 2025 wurde die Abteilung im Bereich Konzernsteuerung etabliert. Zu ihren Aufgaben gehört, innovative Use Cases zu identifizieren, neue Effizienzen zu heben und natürlich eine gute Governance sicherzustellen. Mit unserem bankinternen GPT „Helena“ stellen wir allen Mitarbeitenden eine KI-Assistenz zur Verfügung – ein zentraler Schritt, um KI im Arbeitsalltag zu verankern. Parallel entwickeln wir gezielt Fachbereichslösungen, die nach und nach produktiv gehen. Dabei achten wir darauf, dass jede Lösung echten Mehrwert bringt. Unser Ziel ist nicht nur technologische Innovation, sondern spürbare Entlastung unserer Fachbereiche und gezielt KI-basierte Angebote für unsere Kunden zu schaffen.

Philipp Schwaab hat vor Jahresfrist die damals neu geschaffene Stelle des Chief AI Officers der Helaba-Gruppe übernommen. Damit will die Landesbank der zunehmenden Bedeutung von künstlicher Intelligenz (auf Englisch AI) Rechnung tragen, teilte sie seinerzeit mit. Der studierte Wirtschaftsinformatiker war zunächst seit 2019 verantwortlich für die IT-Security der Helaba und leitet nun als Chief AI Officer auch das konzernweite Projekt „Helaba AI“. Vor seinem Wechsel zur Landesbank war der 39-jährige Vater eines Sohnes und leidenschaftliche Fan von Eintracht Frankfurt in unterschiedlichen Positionen in der IT der Commerzbank tätig.
Helaba

Wie ist die Akzeptanz seitens der Mitarbeitenden? Gibt es Ängste, etwa überfordert oder obsolet zu werden?

Transparenz spielt hier eine große Rolle. Wir kommunizieren von Anfang an klar, wie wir KI mehrwertorientiert einsetzen werden. Was die Akzeptanz angeht: Unsere Mitarbeitenden haben zum größten Teil bereits Erfahrungen im Umgang mit KI im Privaten gemacht. Daher ist es alternativlos, eine KI zur Verfügung zu stellen. Die Nachfrage nach einer KI für den beruflichen Einsatz ist bei uns größer als die Ängste vor selbiger. Dabei hilft natürlich, dass gerade eher ungeliebte Arbeiten erleichtert werden, also Erstellung von Reportings, das Screenen von Unternehmensberichten oder Kennzahlen aus einem Nachhaltigkeitsbericht in ein vorgefertigtes Template zu bringen.

Das Thema agentische KI ist zurzeit in aller Munde. Wie gehen Sie hier vor?

Aktuell analysieren wir, welche Nutzungsszenarien sich daraus ergeben und welche Plattform sich eignen könnte. Es positionieren sich sehr viele Softwarehersteller am Markt mit ihren Agentenplattformen. Wir haben viele verschiedene Systeme im Einsatz, deren Daten perspektivisch genutzt werden sollen. Darin steckt schon eine gewisse Komplexität. Es stellt sich zudem bei vielen Anwendungen die Frage, ob es sich wirklich um agentische KI-Lösungen oder doch eher einen Automatisierungsansatz handelt. Spannend ist auch letztlich die Frage nach der Übergabe von verschiedenen Tasks von Agent zu Agent, also der Multi-Agenten-Ansatz.

Wie ist bei KI-Agenten gewährleistet, dass der Mensch die Kontrolle behält?

Genau diese Frage „Wann kontrolliert der Mensch, wie und was passiert?“ sehen wir uns ganz in Ruhe an, bevor wir einen Schnellschuss wagen. Klar ist aber, dass wir dem „human in the loop“-Prinzip folgen. In der deutschen Finanzbranche startet man gerade erst mit der Nutzung von KI-Agenten, während solche international schon stärker eingesetzt werden.

In welchen Nutzungsszenarien können Banken denn hier profitieren?

Im Kundenservice kann ein Agent bereits Anrufe entgegennehmen und mit Kunden interagieren. Bei First Level und auch Second Level Support merkt man nicht unbedingt, dass man mit der KI kommuniziert. Das betrifft Anfragen bei einfacheren Services, die von einem Agenten sehr gut und schnell erledigt werden können, wie etwa einem Depotumzug mit standardisiertem Formular. Auch die Dokumentenprüfung im Kreditprozess kann heute durch Fraud-Agenten unterstützt werden.

Welche strategischen Vorteile ergeben sich für jüngere Anbieter wie Neobroker durch ihre moderne, flexible IT beim Einsatz von KI-Agenten im Vergleich zu Banken mit Legacy-Systemen?

Viele Neobroker haben von Beginn an vieles in der Cloud hoch standardisiert auf Plattformen gelegt und setzen nun Agenten auf einer ganz anderen Basis ein, als das etablierte Finanzinstitute mit einer historisch gewachsenen IT darstellen können. Gerade die Themen Plattformökonomie und KI-Agenten wachsen aktuell stärker zusammen, und da gibt es jetzt nochmal einen Schub durch Automatisierung. Als junges Unternehmen stellt sich bei der Gründung mittlerweile die Frage, wie viele Mitarbeitende wirklich noch benötigt werden. Viele Entwicklungen lassen sich schnell mit KI und Agenten, etwa mit Autocoding, unterstützen. Und es ist abzusehen, dass es bald das erste Unicorn geben wird, das – überspitzt gesagt – von nur noch einem Menschen ganz ohne Mitarbeitende betrieben wird.

Sie waren bei der Helaba zuvor auch für IT-Security verantwortlich. Welche Herausforderungen sehen Sie beim Einsatz von KI-Agenten?

Zurzeit definieren wir verschiedene Proof of Concepts und Pilotprojekte. Anhand der uns gegebenen Vorgaben prüfen wir, ob und wo der Einsatz von Agenten umsetzbar ist. Dabei berücksichtigen wir Governance-Themen, unter anderem den EU-AI-Act oder den Digital Operational Resilience Act (Dora).

Wie lässt sich mit Gefahren, die durch Automatisierung entstehen, umgehen?

Je mehr ich automatisiere, desto größer wird das Risiko, dass eine Automatisierung ausgenutzt wird und ein Angreifer sich überlegt, wie er mit KI etwas triggern kann. Das ist ein Wettlauf zwischen denjenigen, die versuchen, Sicherheitslücken mit KI auszunutzen, und denjenigen, die mit KI genau das zu verhindern versuchen. Die Gefahr, die ich mit Blick auf IT-Security aktuell sehe, ist, dass früher letztlich zumeist ein Mensch auf einen Knopf gedrückt hat. Hierfür kann man Mitarbeitende sensibilisieren. Wenn es jetzt aber um eine E-Mail geht, die, sobald sie geöffnet wird, automatisch einen Code ausführt, dann passiert das leider ohne bewusste Handlung eines Menschen.

Und dann kommen ja auch noch Themen hinzu wie etwa Deepfakes.

Auch hier muss dringend sensibilisiert werden, denn es ist inzwischen möglich, mit Avataren und Videogenerierung einen Teams-Call zu fälschen. Das heißt, dieses C-Fraud-Thema, wenn ein Anruf mit der Originalstimme des Vorstands erfolgt, ist noch mal viel größer geworden. Da müssen wir noch deutlicher darauf hinweisen, lieber einmal mehr nachzufragen als einmal zu wenig.

Welche Risiken gibt es, wenn KI-Agenten untereinander interagieren?

Grundsätzlich muss auch bei KI-Agenten immer eine Nachvollziehbarkeit gegeben sein, gerade auch mit Blick auf Stichwörter wie Bias, also Voreingenommenheit. Wenn ein Sprachmodell primär auf Daten aus dem Internet trainiert wurde, ist es ein Spiegel der Gesellschaft. Deswegen sollten Daten und Ergebnisse, die von einer KI stammen, stets geprüft werden. Und bei Agenten muss überlegt werden, an welcher Stelle eine Überprüfung sinnvoll erfolgen kann. Eine spannende Frage ist, wie weit bei großen Datenmengen eine Nachvollziehbarkeit überhaupt noch sichergestellt werden kann. Da gilt es, abzuwägen zwischen Nachvollziehbarkeit, größtmöglichen Effizienzen und Vollautomatisierung. Wollen wir in Zukunft darauf vertrauen, dass ein Agent andere Agenten kontrolliert? Können Agenten genauso gut kontrollieren wie ein Mensch?

Das hehre Ziel ist ja „human in the loop“ oder gar „human in the lead“. Welche Kompetenzen braucht es hierfür?

Wir müssen mutig sein und vieles testen. Und das geht auch einher mit der Weiterentwicklung der Rollen und Stellenbeschreibungen. Wie arbeiten wir in einem oder in fünf Jahren? Wir müssen jetzt anfangen, uns darauf vorzubereiten. Auch deswegen sind in der Helaba KI mit der Digitalstrategie und Innovationsthemen so eng verknüpft und in einer zentralen Einheit gebündelt.

Anhand welcher Kriterien und KPIs wird der Erfolg der KI-Transformation in der Helaba gemessen?

Der Erfolg wird nicht pauschal über KPIs wie gesparte Minuten pro Prompt gemessen – solche Zahlen sind zwar eingängig, aber oft nicht belastbar. Stattdessen bewerten wir den Impact kontextbezogen: Jeder Use Case muss zeigen, dass er echte Effizienzgewinne oder qualitative Verbesserungen bringt – etwa schnellere Entscheidungen, bessere Datenqualität oder entlastete Fachbereiche. Entscheidend ist, dass die Technologie im Alltag Wirkung entfaltet und nicht nur theoretisch Potenzial hat.

Die Helaba ist auch Gründungsmitglied beim Projekt Futury, das vom Bundeswirtschaftsministerium den Förderpreis erhalten hat. Worum geht es da?

Wir wollen den Finanzplatz Frankfurt und das Ökosystem vor Ort weiter stärken, mit unseren Investments und mit Partnerschaften. Gerade bei KI ist es sehr wichtig, junge Unternehmen mitzunehmen und ihre Services zu nutzen. Auch hinsichtlich des Strebens nach mehr digitaler Souveränität stellt sich die Frage, ob man wirklich die Lösung von den etablierten Playern nutzen muss oder etwas fördern kann, das eine lokale Präsenz hat, womit man dann auch etwas für Europa und Deutschland tut. Das soll in den nächsten Jahren weiter vorangebracht werden.

Ist das auch eine Triebfeder für Ihre Beteiligung am DataHub Europe von Schwarz Digits? Welche Rolle nimmt die Helaba als Partner hier ein?

Ja, genau – als strategischer Partner im DataHub-Europe-Ökosystem möchten wir gemeinsam mit Schwarz Digits Lösungen entwickeln, die die digitale Souveränität im Finanzsektor stärken und europäische Werte fördern. Uns ist wichtig, dass wir dabei auf transparente Prozesse und höchste Datenschutzstandards setzen. Die Helaba bringt ihre Branchenerfahrung ein, um praxisnahe KI-Anwendungen und digitale Marktplatzlösungen zu schaffen, die echten Mehrwert für unsere Kunden und Mitarbeitenden bieten. Nur gemeinsam können wir Innovationen vertrauenswürdig gestalten.

Das Interview führte Franz Công Bùi.