GastbeitragGeldanlage

Warum echtes KI-Investing nichts mit großen Sprachmodellen zu tun hat

In einer Zeit, in der das Etikett „KI“ leicht zu verwenden ist, ist es an der Zeit, eine klare Grenze zwischen KI-gesteuert und KI-geschmückt zu ziehen.

Warum echtes KI-Investing nichts mit großen Sprachmodellen zu tun hat

Warum echtes KI-Investing nichts mit großen Sprachmodellen zu tun hat

Künstliche Intelligenz sorgt in der Finanzwelt immer wieder für Schlagzeilen. Doch hinter den Schlagzeilen verbirgt sich ein Widerspruch: Während sich viele Vermögensverwalter darauf stürzen, ihre Strategien als „KI-gestützt“ zu bezeichnen, ist die tatsächliche Anwendung künstlicher Intelligenz beim Investieren nach wie vor kaum bekannt - nicht nur bei Kleinanlegern, sondern auch bei größeren institutionellen Anlegern.

Einer der Hauptgründe für diese Skepsis ist die Vermischung von grundlegend unterschiedlichen KI-Technologien. Insbesondere große Sprachmodelle (LLMs) wie GPT-4 werden oft als austauschbar mit Zeitreihenvorhersagemodellen und tiefen neuronalen Netzen angesehen. Diese Systeme arbeiten jedoch nach völlig unterschiedlichen Prinzipien und bieten grundlegend unterschiedliche Fähigkeiten und Risiken.

Verwechslung nicht ungefährlich

Bei Omphalos Fund, wo wir einen völlig autonomen, KI-gesteuerten Multi-Strategie-Hedgefonds verwalten, sind wir der Meinung, dass diese Verwechslung nicht ganz ungefährlich ist. Sie verwässert das Vertrauen in seriöse Anwendungen von KI im Finanzbereich und fördert das, was wir als „KI-Washing“ bezeichnen - die oberflächliche Nutzung von KI zur Verbesserung von Marketing-Narrativen und nicht wirklich von Anlageergebnissen.

Das bekannteste Beispiel ist der wachsende Trend unter aktiven Managern, LLMs in ihren Anlageprozess zu integrieren. Während diese Modelle die Zusammenfassung von Dokumenten oder die Klassifizierung von Nachrichten unterstützen können, gehen einige Manager so weit zu behaupten, dass sie die Entscheidungsfindung bei Investitionen unterstützen oder sogar ersetzen können. Dies ist ein gefährliches Overselling.

Erinnerung statt Vorhersage

Eine aktuelle wissenschaftliche Studie von Alejandro Lopez-Lira, Yuehua Tang und Mingyin Zhu mit dem Titel „The Memorization Problem: Can We Trust LLMs' Economic Forecasts?“ ist ein überzeugendes Argument für Skepsis. Die Studie zeigt, dass sich LLMs oft einfach an vergangene Wirtschaftsdaten erinnern, anstatt echte prognostische Erkenntnisse zu gewinnen. Selbst wenn sie angewiesen werden, Daten nach dem Stichtag nicht zu berücksichtigen, haben die Modelle Schwierigkeiten, dies zu befolgen, was ernsthafte Bedenken hinsichtlich ihrer Zuverlässigkeit bei zeitkritischen Prognosen aufkommen lässt.

Versuche, den Zugang zu sensiblen Finanzinformationen zu verbergen oder einzuschränken, erwiesen sich ebenfalls als unwirksam - die LLMs konnten fehlende Daten aus kontextuellen Hinweisen ableiten. Die Autoren warnen davor, dass dieses Verhalten die Backtest-Ergebnisse aufblähen kann, was zu der Illusion eines Vorhersageerfolgs führt, obwohl in Wirklichkeit nur das Erinnerungsvermögen gemessen wird.

Vertrauen sollte auf Transparenz beruhen

Dies steht in krassem Gegensatz zu Zeitreihenmodellen und Systemen des Reinforcement Learning, die speziell dafür entwickelt wurden, Muster in historischen Marktdaten zu erkennen und Wahrscheinlichkeiten auf der Grundlage von Echtzeitsignalen zu aktualisieren. Diese Systeme bilden das Rückgrat echter KI-Investitionen, bei denen autonome Agenten innerhalb eng definierter Risikoparameter unabhängige Handelsentscheidungen treffen. Bei Omphalos Fund umfasst unsere Architektur Hunderte solcher Trading-Agenten, von denen jeder mit seinem eigenen Modell und Datensatz arbeitet und die alle im Rahmen einer strengen Portfoliooptimierung koordiniert werden.

In diesem Zusammenhang können LLMs bei der Kommunikation oder beim thematischen Screening helfen, aber sie sind keine Werkzeuge der Alpha-Generierung. Das Vertrauen in KI sollte auf Transparenz, Robustheit und fachspezifischem Design beruhen - nicht auf sprachlichen Fähigkeiten.

Klare Grenze ziehen

Für institutionelle Anleger, die KI-gestützte Strategien evaluieren, ist es wichtig, über die Schlagworte hinauszugehen. Fragen Sie, wie die Modelle funktionieren. Fragen Sie, ob sie wirklich autonom arbeiten können. Fragen Sie, auf welcher Art von Daten sie trainiert werden und ob die Architektur darauf ausgelegt ist, zu lernen und sich nicht nur zu erinnern.

In einer Zeit, in der das Etikett „KI“ leicht zu verwenden ist, ist es an der Zeit, eine klare Grenze zwischen KI-gesteuert und KI-geschmückt zu ziehen. Die Anleger verdienen mehr als nur schöne Beschreibungen; sie verdienen eine Leistung, die auf wissenschaftlicher Akribie beruht.

Unsere Gastautoren Pawel Skrzypek und Carsten Böhme sind Mitgründer und CIO bzw. Senior Advisor beim Omphalos Fund.