Silicon Valley beschwört den Zauber der Wall Street
Silicon Valley beschwört den Zauber der Wall Street
J.P.-Morgan-Chef Jamie Dimon poliert Selbstvertrauen von Tech-Entwicklern auf – Große KI-Investitionen von Finanzdienstleistern in Aussicht
Das Silicon Valley feiert J.P.-Morgan-Chef Jamie Dimon wie einen Popstar. Denn der mächtige Wall-Street-Kopf schürt im Rahmen eines KI-Gipfels des Cloud-Dienstleisters Databricks die Hoffnung auf einen ungebrochenen Boom um lernfähige Sprachmodelle, die zuletzt erhebliche Dämpfer erlitten hat.
xaw zzt. San Francisco
Jamie Dimon setzt in San Francisco zur großen Charmeoffensive an. „Wir haben künstliche Intelligenz aus unserer üblichen Tech-Struktur herausgelöst, weil das Thema einfach so wichtig ist und alles verändern wird“, sagt der CEO von J.P. Morgan auf dem in dieser Woche laufenden „Data + AI Summit“ des Cloud-Dienstleisters Databricks – und die versammelten Entwickler und Startup-Unternehmer fressen dem als „Titan der Wall Street“ angekündigten Chef der größten US-Bank aus der Hand.
Gebannt lauschen sie, als Dimon während seines Beitrags zur Keynote von Databricks-Gründer Ali Ghodsi weit über Anwendungen künstlicher Intelligenz im Finanzwesen und Cybersicherheitsbedenken hinaus abschweift. Über die Bedeutung der militärischen Vorherrschaft der Vereinigten Staaten bis hin zu den Übeln der Bankenregulierung hakt der J.P.-Morgan-Chef mit rauer New Yorker Schnauze eine Reihe an Themen ab, mit denen die Tech-Bubble des Silicon Valley sich im Tagesgeschäft selten auseinandersetzt.
„Wie viele Leute würden mich wählen?“
Ghodsi findet Dimons Parole, Amerika sei „unersetzlich“ und müsse „seine Werte gegen China verteidigen“ anstatt sich selbst zu zerfleischen, dabei so „inspirierend“, dass eine Frage aus ihm herausplatzt: „Würdest du in dreieinhalb Jahren für die Präsidentschaft kandidieren?“ Dimon hält sich scherzhaft die Augen zu und antwortet mit einer Gegenfrage: „Wie viele Leute würden mich denn wählen?“ Und prompt schießen im Veranstaltungssaal des Moscone-Messezentrums die Hände in die Höhe.

Databricks
Dimon ist in San Francisco nicht derartig beliebt, weil er die Sprache der Coder und Startup-Gründer spricht. Er müsse nicht wissen, wie genau eine Lithium-Ionen-Batterie funktioniert, sondern verstehen, was sie leisten könne, betont der CEO – ähnlich verhalte es sich mit Modellen zur Datenverarbeitung und Anwendungen künstlicher Intelligenz. Vielmehr erhält Dimon so großen Zuspruch, weil der mächtige Wall-Street-Kopf das Silicon Valley in seinem Selbstverständnis bestätigt.
Effizienzgewinne in jedem Geschäftsbereich
„Wir haben bisher 200 Mrd. Dollar für KI ausgegeben und befüllen unsere Systeme ständig mit mehr und mehr Daten“, sagt der 69-Jährige auf dem Podium, und betont, J.P. Morgan und andere führende Häuser müssten schon deshalb mehr investieren, um gegen die wachsenden Gefahren durch Cyberangriffe gewappnet zu sein. Allein für 2025 hat das größte US-Finanzinstitut ein IT-Budget von 18 Mrd. Dollar veranschlagt. Es beschäftigt tausende eigene Entwickler, die KI laut dem CEO nutzbar machen sollen, um in jedem Geschäftsbereich Effizienzen zu heben, von Kreditkarten bis hin zum Devisentrading.
Zweifel an der Nachhaltigkeit
Für die Zuhörer beinhalten Dimons Worte eine klare Botschaft: Die Wall Street werde dazu beitragen, dass der Boom um künstliche Intelligenz weiterläuft. Dabei sind die Zweifel an der Nachhaltigkeit der enormen Investitionsausgaben von Big Tech für KI-Anwendungen in den vergangenen Monaten gewachsen. Den Stein ins Rollen brachte das chinesische Startup Deepseek, das zu Jahresbeginn seinen Chatbot „R1“ lancierte. Dessen Performance konnte schnell mit jener großer Sprachmodelle aus den USA mithalten, obwohl den Entwicklern aus dem Reich der Mitte aufgrund von Exportkontrollen schon in der Regierungszeit von Präsident Joe Biden weit weniger fortschrittliche Chips zur Verfügung standen.
Gewaltige Ausgaben trotz Unsicherheit
Der von Bidens Nachfolger Donald Trump losgetretene globale Handelskrieg löst bei Ökonomen wie Moody's-Chefvolkswirt Mark Zandi oder dem ehemaligen US-Finanzminister Larry Summers ernste Sorgen vor einer Stagflation in den USA aus. Analysten warnen, das schwer eingetrübte Konjunkturumfeld dürfte auf der Ausgabebereitschaft von Kunden in den Kerngeschäftsbereichen der US-Technologieriesen lasten, etwa im Werbemarkt oder im E-Commerce. Amazon hat zuletzt einen äußerst vorsichtigen Ausblick für das laufende Quartal gestellt.

Trotz der Unsicherheit dürften Amazon, Alphabet, Microsoft und Meta Platforms im laufenden Jahr bis zu 320 Mrd. Dollar für KI-Anwendungen und verbundene Rechenzentren aufwenden, wie aus den jüngsten Ausblicken und CEO-Kommentaren hervorgeht. Nvidia, deren Prozessoren die wichtigste Infrastruktur-Grundlage des KI-Booms bilden, sucht indes ihre Abhängigkeit von der kleinen und extrem konzentrierten Kundengruppe zu reduzieren und die Erlösbasis durch mehr Geschäft mit Nationalstaaten zu verbreitern.
Stärkerer Fokus auf Nationalstaaten
Zuletzt hat der Chipdesigner etwa eine milliardenschwere Vereinbarung mit dem saudischen KI-Unternehmen Humain geschlossen. Derweil wollen die Vereinigten Arabischen Emirate in Koordination mit der US-Regierung eines der weltgrößten Datenzentren bauen und haben sich Bezugsmöglichkeiten für Millionen von Nvidia-Prozessoren gesichert. Unter Biden hatte Washington die Ausfuhr von Chips in die Emirate noch stark beschränkt. Hintergrund ist die Sorge davor, dass US-Technologie so über Umwege nach China gelangen könnte – wovor auch der vom Silicon Valley gefeierte Dimon warnt.
Nationalstaaten als Kunden
Daniel Holz, bei Databricks als Vice President für Zentraleuropa für den deutschsprachigen Markt verantwortlich, rechnet mit einer „massiven Nachfrage“ von Nationalstaaten nach Datenlösungen. „Länder wie Deutschland müssen die Digitalisierung des gesamten öffentlichen Dienstes überholen“, sagt Holz im Gespräch mit der Börsen-Zeitung. Zugleich rechnet der ehemalige Oracle- und Google-Manager damit, dass die sogenannten „Hyperscaler“ – die größten Cloud-Dienstleister Amazon, Alphabet und Microsoft – im Rennen um die KI-Vorherrschaft noch nachlegen.
Hoffnung auf langes Wettrüsten
„Wenn einer von ihnen mit einer neuen Generation großer Sprachmodelle Durchbrüche erzielt, können es sich die anderen nicht leisten, nicht dabei zu sein“, führt Holz aus. Das Wettrüsten werde wohl so lange weitergehen, bis es klare Signale dafür gebe, dass die Kosten für Inferenz – also die Fähigkeit von KI-Modellen, aus den im Zuge des maschinellen Lernens eingespeisten Daten Muster zu erkennen und somit auch aus unbekannten Informationen Schlüsse zu ziehen – zurückgingen.
CEO Ghodsi bezeichnet die Hyperscaler als Partner, deren anhaltende Investitionen in KI für Kunden wie Databricks wichtig seien. „Aber wir sind andersherum auch sehr wichtig für die Hyperscaler, da wir ihre Infrastruktur in großem Stil beanspruchen und wiederum für Milliardeninvestitionen auf Basis dieser Infrastruktur sorgen“, betont der Gründer des Unternehmens, das Lösungen für die Speicherung und das Management großer Datenmengen sowie auf diesen basierende Analyse-Tools entwickelt.
Im schlimmsten Fall keine Neueinstellungen
Databricks sei „nicht wirklich abhängig von fremdem Kapital, sondern selbstständig in der Lage, aggressiv zu investieren“, sagt Ghodsi im Rahmen einer Medienrunde am Mittwoch auf Nachfrage der Börsen-Zeitung. Databricks wolle im laufenden Jahr 3.000 neue Mitarbeiter beschäftigen – trübe sich das globale Makro-Umfeld stark ein und verliere der KI-Boom massiv an Schwung, seien im schlimmsten Szenario eben keine Neueinstellungen möglich. „Dann wird es uns aber trotzdem gut gehen“, versichert Ghodsi.

picture alliance / CFOTO | CFOTO
Derweil versuchen sich auch Technologieschmieden wie OpenAI, die mit ihrem Textgenerator ChatGPT zum KI-Vorreiter wurde, von großen Partnern wie Microsoft abzukapseln. Das Startup hat sich 11,6 Mrd. Dollar an Investitionszusagen gesichert, um ein Rechenzentrum in Texas auszubauen, durch das es sich langfristig höhere Computing-Kapazitäten sichern will. Der Alternatives-Spezialist Blue Owl Capital steuert Cash zu dem Deal bei – und auch sonst zeigt sich die Wall Street sehr interessiert daran, den KI-Boom mit Finanzierungen anzutreiben.
Doch auch als Kunden, unterstreicht Databricks-Manager Holz, seien Banken, Assetmanager und Versicherer eben sehr wichtig. „Wir lieben es, mit Finanzdienstleistern zusammenzuarbeiten, da sie sich bereits gut mit Datenmanagement auskennen und einen hohen Bedarf haben, ihr Risiko-Exposure zu reduzieren“, sagt der Vice President und verweist dabei auf Aussagen Dimons, gemäß denen J.P. Morgan „100 interne Stresstests pro Woche“ ablaufen lasse.
Seitenhiebe gegen Regulatoren
Die Äußerung des Bank-CEOs, der in dieser Woche das Silicon Valley bezaubert, ist indes als Seitenhieb auf die Federal Reserve gemünzt – eine der „hysterischen“ Behörden, die laut dem 69-Jährigen trotz allem Eifer „nicht auf die nächste Krise vorbereitet“ seien. Eine übermäßig komplexe und beschwerliche Bankenregulierung, so dringt bei Dimons Auftritt durch, sieht der J.P.-Morgan-Chef als genauso große Gefahr für die Zukunft Amerikas wie einen Verlust der Technologiehoheit an China.
Als Ghodsi noch einmal nachbohrt, ob Dimon selbst politische Verantwortung übernehmen und gegen die Entwicklungen einstehen wolle, die ihn störten, winkt der Bank-CEO jedoch ab. „Ihr müsstet mich schon ernennen, ich könnte niemals kandidieren“, sagt Dimon mit Verweis auf seinen ohnehin vollen Terminkalender – schiebt aber unter allseitigem Gelächter im Messesaal nach, er könne vielleicht ja „einen eurer KI-Agenten als Wahlkampfteam einsetzen“.