Samsung setzt auf Preiskrieg im Speicherchipmarkt
- Lesezeichen für Artikel anlegen
- Artikel Url in die Zwischenablage kopieren
- Artikel per Mail weiterleiten
- Artikel auf X teilen
- Artikel auf WhatsApp teilen
- Ausdrucken oder als PDF speichern
Das berichtet heute die für gewöhnlich gut unterrichtete taiwanesische Digitimes. Der Schritt fällt in eine Phase, in der die Nachfrage nach Speicherlösungen für Künstliche Intelligenz die gesamte Branche an ihre Kapazitätsgrenzen führt.
HBM – kurz für High Bandwidth Memory – gilt als Schlüsseltechnologie für moderne KI-Systeme. Diese Speicherchips ermöglichen extrem schnelle Datenübertragungen und sind unverzichtbar für die Entwicklung und das Training von Modellen wie ChatGPT oder für Hochleistungsrechenzentren. Während SK Hynix bereits im Sommer 2024 mit der Serienfertigung seiner 12-Layer-HBM3E begann und Micron Anfang 2025 die Freigabe erhielt, kämpfte Samsung monatelang mit technischen Problemen. Erst im zweiten Halbjahr 2025 erteilte Nvidia schließlich die Zertifizierung, zu spät, um die Konkurrenz noch einzuholen.
