BlickfeldFlaschenhals für KI-Entwicklung

Dreikampf um KI-Speicherchips

Samsung Electronics und Micron jagen Marktführer SK Hynix bei Speicherchips mit hoher Bandbreite für KI-Beschleuniger. Analysten erwarten einen Superzyklus für diese HBM-Chips.

Dreikampf um KI-Speicherchips

Dreikampf um KI-Speicherchips

Samsung Electronics und Micron jagen Marktführer SK Hynix bei Speicherchips mit hoher Bandbreite für KI-Beschleuniger. Analysten erwarten einen Superzyklus für diese HBM-Chips.

Von Martin Fritz, Tokio

Am Dienstag hat Südkoreas Börsenbetreiber zum zweiten Mal innerhalb eines Monats vor Investitionen in die Aktie von SK Hynix gewarnt. Anleger sollten Vorsicht walten lassen, nachdem sich die Titel in diesem Jahr mehr als verdreifacht haben. Der südkoreanische Speicherchip-Spezialist profitierte stark vom KI-Börsenhype: SK Hynix ist der Hauptlieferant von High-Bandwidth-Memory Chips (HBM) für die KI-Beschleuniger von Nvidia.

„Technologisches Wunder“

Diese Stapel (Stacks) aus bis zu 16 flachen DRAM-Chips ermöglichen einen sehr schnellen Datenfluss bei geringem Stromverbrauch. KI-Beschleuniger für Rechenzentren kombinieren Grafikprozessoren (GPU) oder neuronale Verarbeitungseinheiten (NPU) mit HBM-Chips. Je größer und schneller letztere sind, desto rasanter lassen sich riesige Datensätze verarbeiten, sei es beim Training von generativen KI-Sprachmodellen, sei es bei der Generierung von Antworten durch KI-Dienste wie ChatGPT. Nvidia-CEO Jensen Huang bezeichnete HBM-Speicher im Frühjahr als „technologisches Wunder“.

Nvidia-Chef Jensen Huang (Quelle: AP)

Jahrzehntelang war Samsung der unangefochtene Titan bei Speicherchips. Aber der einheimische Konkurrent SK Hynix beherrscht das neue Segment der Speicherchips mit hoher Bandbreite. Der dritte Player in diesem Sektor ist der US-Hersteller Micron. Laut der Prognose des Marktforschers Trendforce vom Januar bleibt SK Hynix in diesem Jahr mit einem Weltmarktanteil von 52% dominierend. Der Anteil von Samsung soll von 41% im Jahr 2024 aufgrund von Qualitätsproblemen auf 29% sinken, gefolgt von Micron mit 19%. Chinas führender HBM-Hersteller Changxin Memory Technologies (CXMT) spielt in diesem Markt derzeit keine Rolle. Analysten schätzen den Rückstand auf drei bis vier Jahre.

Jährlich 30 Prozent Wachstum bis 2030

Die ungenügende Produktionsmenge an HBMs wirkt derzeit als Flaschenhals für die KI-Entwicklung. Die drei großen Hersteller können die Nachfrage voraussichtlich bis ins Jahr 2027 nicht befriedigen, sodass Analysten von einem HBM-getriebenen Superzyklus für Speicherbausteine sprechen, der über die bisher üblichen vier bis fünf Jahre von Spitze zu Spitze hinausreicht. Denn außer Nvidia lassen auch Hyperscaler wie Google und Amazon eigene KI-Beschleuniger fertigen.

SK Hynix rechnet laut ihrer eigenen „konservativen“ Prognose mit einem durchschnittlichen Marktwachstum von mehr als 30% in den nächsten fünf Jahren. Die Südkoreaner haben bereits ihre gesamte Chipproduktion für 2026 verkauft. Die hohe Nachfrage sorgt für stabile oder leicht steigende Preise: Ein HBM3e-Stack (12 Schichten) mit 36 GB Kapazität kostet Abnehmer wie Nvidia geschätzte 5.000-6.000 Dollar, wobei ein einzelner KI-Beschleuniger 4-6 Stacks benötigt.

Übergang zur nächsten Generation

Der Dreikampf konzentriert sich aktuell auf den Übergang von der HBM3e- zur HBM4-Generation, der im Jahr 2026 ansteht. Dieser Entwicklungssprung bringt massiv mehr Speicherkapazität und Bandbreite (Datenmenge pro Sekunde) bei weniger Stromverbrauch. SK Hynix schloss die interne Zertifizierung für HBM4 im September ab. Diese Speicherchips sollen bei der nächsten GPU-Generation „Rubin“ von Nvidia zum Einsatz kommen. Samsung verhandelt mit Nvidia über HBM4-Lieferungen ab 2026. Micron peilt die Massenproduktion ebenfalls für 2026 an. Ihre HBM4-Chips steigern die Bandbreite um 60% auf 2 Terabyte pro Sekunde und verbrauchen 20% weniger Energie im Vergleich zu Microns HBM3e.

HBM3E-Chip von SK Hynix (Quelle: Bloomberg)
Bloomberg/SeongJoon Cho

SK Hynix setzte früh und konsequent auf diese Marktnische. AMD hatte die Südkoreaner als Partner ins Boot geholt, um eine effizientere Speicherschnittstelle für Hochleistungs-Grafikprozessoren zu entwickeln. SK Hynix baute 2013 den ersten HBM-Chip überhaupt und legte mit AMD auch den Standard für das Produkt fest. Kurz zuvor hatte die SK Group, Südkoreas zweitgrößtes Konglomerat, den hochverschuldeten Hersteller übernommen. Ihr Chef Chey Tae-won entschied, massiv in die Entwicklung von HBM zu investieren. Die riskante Wette ging auf. Als OpenAI Ende 2022 mit dem Start von ChatGPT eine rasante Nachfrage nach KI-Beschleunigern auslöste, hatte SK Hynix gerade mit der Massenfertigung von HBM3-Chips für Nvidias H100-Modul begonnen. Seitdem verschob der Hersteller alte und neue Kapazitäten in Richtung HBM, um die Marktposition abzusichern.

„Hynix-Schock“ scheint verdaut

Währenddessen hat Samsung den „Hynix-Schock“ weitgehend verdaut und ungeachtet der hohen Kosten zur HBM-Aufholjagd geblasen. Nvidia zertifizierte nach inoffiziellen Angaben die nachgebesserten HBM3e-Chips mit anderthalb Jahren Verspätung im Herbst und erhält inzwischen kleinere Liefermengen aus Südkorea. Mit dem Produktionsstart der HBM4-Generation in der 10-Nanometer-Technologie könnte Samsung den Rückstand auf SK Hynix im nächsten Jahr verkleinern. „Aufgrund der hohen Anfangskosten und geringen Erträge dieser Technologie erwarten wir jedoch, dass Samsungs Rentabilität bei HBM im Jahr 2026 im Vergleich zu anderen Herstellern relativ gering sein wird, obwohl wir davon ausgehen, dass sich diese Lücke bis 2027 rasch schließen wird“, heißt es in einer Nomura-Analyse.

Doch die Südkoreaner sollten ihren großen US-Rivalen nicht unterschätzen. Micron liefert eine Comeback-Story ab: Nach gescheiterten Vorläufern wie Hybrid Memory Cube und 3D XPoint gelang Micron schließlich der Sprung in den profitablen HBM-Markt. Ihr Umsatz kletterte vom zweiten zum dritten Quartal um die Hälfte. Der US-Hersteller vermarktet seine Chips als schneller, sparsamer und insgesamt preisgünstiger. In seinem Werk in Hiroshima errichtet Micron ab 2026 eine HBM4-Fertigungslinie für 1,5 Bill. Yen (8,3 Mrd. Euro), ein Drittel davon zahlt Japans Regierung. Erste Auslieferungen sind für 2028 geplant. Damit will sich Micron unabhängiger von ihrem Produktionsstandort in Taiwan machen.

Exportbann nach China unterlaufen

Ein unbekannter Faktor in diesem Dreikampf ist der Defacto-Exportbann für HBM-Speicher nach China. Nach der Erlaubnis von US-Präsident Trump vom Montag darf Nvidia seine H200-Beschleuniger nach China exportieren. Damit würde der Exportbann für leistungsfähige HBMs unterlaufen, da mehrere davon auf den zweitmodernsten KI-Beschleunigern von Nvidia verbaut sind. Ob die Nachfrage nach HBM-Chips dadurch weiter wächst, hängt davon ab, in welchem Umfang Peking H200-Importe zulassen wird - man fürchtet, sich von den USA abhängig zu machen.