Im BlickfeldFlaschenhals für KI-Entwicklung

Dreikampf um KI-Speicherchips

Samsung Electronics und Micron jagen Marktführer SK Hynix bei Speicherchips mit hoher Bandbreite für KI-Beschleuniger. Analysten erwarten einen Superzyklus für diese HBM-Chips.

Dreikampf um KI-Speicherchips

Dreikampf um KI-Speicherchips

Samsung Electronics und Micron jagen Marktführer SK Hynix bei Speicherchips mit hoher Bandbreite für KI-Beschleuniger. Analysten erwarten einen Superzyklus für diese HBM-Chips.

Von Martin Fritz, Tokio

Am Dienstag hat Südkoreas Börsenbetreiber zum zweiten Mal innerhalb eines Monats vor Investitionen in die Aktie von SK Hynix gewarnt. Anleger sollten Vorsicht walten lassen, nachdem sich die Titel in diesem Jahr mehr als verdreifacht haben. Der südkoreanische Speicherchip-Spezialist profitierte stark vom KI-Börsenhype: SK Hynix ist der Hauptlieferant von High-Bandwidth-Memory Chips (HBM) für die KI-Beschleuniger von Nvidia.

„Technologisches Wunder“

Diese Stapel (Stacks) aus bis zu 16 flachen DRAM-Chips ermöglichen einen sehr schnellen Datenfluss bei geringem Stromverbrauch. KI-Beschleuniger für Rechenzentren kombinieren Grafikprozessoren (GPU) oder neuronale Verarbeitungseinheiten (NPU) mit HBM-Chips. Je größer und schneller letztere sind, desto rasanter lassen sich riesige Datensätze verarbeiten, sei es beim Training von generativen KI-Sprachmodellen, sei es bei der Generierung von Antworten durch KI-Dienste wie ChatGPT. Nvidia-CEO Jensen Huang bezeichnete HB-Speicher im Frühjahr als „technologisches Wunder“.

Jahrzehntelang war Samsung der unangefochtene Titan bei Speicherchips, zunächst bei DRAM, dann auch bei NAND. Aber der einheimische Konkurrent SK Hynix beherrscht das neue Segment der Speicherchips mit hoher Bandbreite. Der dritte Player in diesem Sektor ist der US-Hersteller Micron. Laut der Prognose von Marktforscher TrendForce vom Januar bleibt SK Hynix in diesem Jahr mit einem Weltmarktanteil von 52% der dominierende Anbieter. Der Anteil von Samsung soll von 41% in 2024 aufgrund von Qualitätsproblemen auf 29% sinken, gefolgt von Micron mit 19%. Chinas führender HBM-Hersteller ChangXin Memory Technologies (CXMT) spielt in diesem Markt derzeit keine Rolle. Analysten schätzen den Rückstand auf drei bis vier Jahre.

Jährlich 30% Wachstum bis 2030

Die ungenügende Produktionsmenge an HBMs wirkt derzeit als Flaschenhals für die KI-Entwicklung. Die drei großen Hersteller können die Nachfrage voraussichtlich bis ins Jahr 2027 nicht befriedigen, sodass Analysten von einem HBM-getriebenen Superzyklus für Speicherbausteine sprechen, der über die bisher üblichen vier bis fünf Jahre von Spitze zu Spitze hinausreicht. Denn außer Nvidia lassen auch Hyperscaler wie Google und Amazon eigene KI-Beschleuniger fertigen.

SK Hynix rechnet laut ihrer eigenen „konservativen“ Prognose mit einem durchschnittlichen Marktwachstum von über 30% in den nächsten fünf Jahren. Die Südkoreaner haben bereits ihre gesamte Chipproduktion für 2026 verkauft. Die hohe Nachfrage sorgt für stabile oder leicht steigende Preise: Ein HBM3e-Stack (12 Schichten) mit 36 GB Kapazität kostet Abnehmer wie Nvidia geschätzte 5.000-6.000 Dollar, wobei ein einzelner KI-Beschleuniger 4-6 Stacks benötigt.

Übergang zur nächsten Generation

Der Dreikampf konzentriert sich aktuell auf den Übergang von der HBM3e- zur HBM4-Generation, der im Jahr 2026 ansteht. Dieser Entwicklungssprung bringt massiv mehr Speicherkapazität und Bandbreite (Datenmenge/Sekunde) bei weniger Stromverbrauch. SK Hynix schloss die interne Zertifizierung für HBM4 im September ab. Diese Speicherchips sollen bei der nächsten GPU-Generation „Rubin“ von Nvidia zum Einsatz kommen. Samsung verhandelt mit Nvidia über HBM4-Lieferungen ab 2026. Micron peilt die Massenproduktion ebenfalls für 2026 an. Ihre HBM4-Chips steigern die Bandbreite um 60% auf 2 TB/Sekunde und verbrauchen 20% weniger Energie im Vergleich zu Microns HBM3e.

SK Hynix setzte früh und konsequent auf diese Marktnische. AMD hatte die Südkoreaner als Partner ins Boot geholt, um eine effizientere Speicherschnittstelle für Hochleistungs-Grafikprozessoren zu entwickeln. SK Hynix baute 2013 den ersten HBM-Chip überhaupt und legte mit AMD auch den Standard für das neue Produkt fest. Kurz zuvor hatte die SK Group, Südkoreas zweitgrößtes Konglomerat, den hochverschuldeten Hersteller übernommen. Ihr Chef Chey Tae-won entschied, massiv in die Weiterentwicklung von HBM zu investieren. Die riskante Wette ging auf. Als OpenAI Ende 2022 mit dem Start von ChatGPT eine rasante Nachfrage nach KI-Beschleunigern auslöste, hatte SK Hynix gerade mit der Massenfertigung von HBM3-Chips für Nvidias H100-Modul begonnen. Seitdem verschob der Hersteller alte und neue Kapazitäten in Richtung HBM, was die Führung sichern sollte.

„Hynix-Schock“ scheint verdaut

Währenddessen hat Samsung den „Hynix-Schock“ weitgehend verdaut und ungeachtet der der hohen Kosten zur HBM-Aufholjagd geblasen. Nvidia zertifizierte im Herbst nach inoffiziellen Angaben die jüngste Generation HBM3e mit anderthalb Jahren Verspätung und erhält nun kleinere Mengen von Samsung. Mit der Produktion von HBM4 in der 10-Nanometer-Technologie könnte Samsung den Rückstand auf SK Hynix im nächsten Jahr verkleinern. „Aufgrund der hohen Anfangskosten und geringen Erträge dieser Technologie erwarten wir jedoch, dass Samsungs Rentabilität bei HBM im Jahr 2026 im Vergleich zu anderen Herstellern relativ gering sein wird, obwohl wir davon ausgehen, dass sich diese Lücke bis 2027 rasch schließen wird“, heißt es in einer Nomura-Analyse.

Doch die Südkoreaner sollten ihren großen US-Rivalen nicht unterschätzen. Micron liefert eine Comeback-Story: Nach gescheiterten Vorläufern wie Hybrid Memory Cube und 3D XPoint gelang Micron schließlich der Sprung in den profitablen HBM-Markt. Ihr Umsatz kletterte vom dritten gegenüber dem zweiten Quartal um die Hälfte. Der US-Hersteller vermarktet seine Chips als schneller, sparsamer und insgesamt preisgünstiger. In seinem Werk in Hiroshima errichtet Micron ab 2026 eine HBM4-Fertigungslinie für 1,5 Bill. Yen (8,3 Mrd. Euro), ein Drittel davon zahlt Japans Regierung. Erste Auslieferungen sind für 2028 geplant. Damit will sich Micron unabhängiger von ihrer Produktion in Taiwan machen.

Exportbann nach China unterlaufen

Ein unbekannter Faktor in diesem Dreikampf ist der Defacto-Exportbann für HB-Speicher nach China. Nach der Erlaubnis von US-Präsident Trump vom Montag darf Nvidia seine H200-Beschleuniger nach China exportieren. Damit würde der Exportbann für leistungsfähige HBMs defacto unterlaufen, da diese Speicher auf den zweitmodernsten KI-Chips von Nvidia verbaut sind. Ob die Nachfrage nach HBM-Chips dadurch weiter wächst, hängt davon ab, in welchem Umfang Peking H200-Importe zulassen wird - man fürchtet, von den USA abhängig zu werden.