Samsung Electronics hat den Beginn der Serienproduktion und die ersten kommerziellen Auslieferungen von HBM4 bekannt gegeben, der nächsten Generation der High-Bandwidth-Memory-Technologie. In der Branche wurde bereits spekuliert, dass das Unternehmen in Kürze mit der Massenfertigung beginnen und im ersten Quartal mit dem Versand starten würde. Die offizielle Ankündigung bestätigt nun diese Informationen.
Mit diesem Schritt ist Samsung der weltweit erste Hersteller, der HBM4 kommerzialisiert und sich damit einen frühen Marktvorsprung sichert. Die neue Speicherlösung wurde speziell für die rasant wachsenden KI-Workloads und skalierbaren Rechenzentrumsinfrastrukturen entwickelt. Samsung betont, dass durch den Einsatz modernster Fertigungsprozesse neue Maßstäbe in den Bereichen Performance, Energieeffizienz und Zuverlässigkeit gesetzt wurden.
Es wird erwartet, dass die neue Generation vor allem in leistungsstarken Rechenzentrumschips wie der Vera Rubin-Architektur von Nvidia und der Instinct MI450-Serie von AMD zum Einsatz kommt.
11,7 Gbps Standardgeschwindigkeit, skalierbar bis zu 13 Gbps
Samsungs HBM4-Lösung erreicht eine konstante Datenübertragungsrate von 11,7 Gigabit pro Sekunde (Gbps). Dieser Wert liegt etwa 46 Prozent über dem Branchenstandard von 8 Gbps. Im Vergleich zur maximalen Pin-Geschwindigkeit der Vorgängergeneration HBM3E (9,6 Gbps) entspricht dies einer Leistungssteigerung um das 1,22-fache. Bei Bedarf kann die Performance von HBM4 sogar auf 13 Gbps gesteigert werden.
Auch bei der Speicherbandbreite gibt es einen massiven Sprung. Die Gesamtbandbreite pro einzelnem HBM4-Stack steigt im Vergleich zu HBM3E um das 2,7-fache auf 3,3 Terabyte pro Sekunde (TB/s). Dieser Wert ist besonders wichtig für GPU-beschleunigtes KI-Training und Inferenz-Szenarien.
Einsatz fortschrittlichster Fertigungsprozesse
Statt auf bewährte Designs zurückzugreifen, setzt Samsung bei der HBM4-Produktion direkt auf modernste Verfahren. Für den Speicherteil wird der DRAM-Prozess der 6. Generation (10-Nanometer-Klasse, 1c) genutzt, während für den Logik-Die die 4-Nanometer-Fertigungstechnologie zum Einsatz kommt.
Das Unternehmen gibt an, dass diese Prozesse ohne zusätzliche Redesigns in die Serienproduktion integriert wurden und von Beginn an stabile Ausbeuten sowie branchenführende Performance liefern.
Samsung bietet HBM4 in 12-Layer-Technologie (12-Hi) mit Kapazitäten zwischen 24 GB und 36 GB an. Parallel zu den Zeitplänen der Kunden ist eine weitere Erhöhung der Kapazität geplant. Ein künftiges 16-Layer-Design (16-Hi) wird die Kapazität auf 48 GB anheben.
Mit HBM4 wurde zudem die Anzahl der Daten-I/Os von 1.024 auf 2.048 Pins verdoppelt. Während dieser Anstieg einen erheblichen Leistungsgewinn ermöglicht, erforderte er neue technologische Lösungen für den Stromverbrauch und das Wärmemanagement.
Samsung setzt im Core-Die fortschrittliche Low-Power-Designtechniken ein. Dank Niederspannungs-TSV-Technologie (Through-Silicon Via) und Optimierungen im Stromverteilungsnetz (PDN) wurde eine um 40 Prozent höhere Energieeffizienz im Vergleich zu HBM3E erreicht. Bei der thermischen Leistung wurde der Wärmewiderstand um 10 Prozent verbessert, während die Wärmeableitungskapazität um 30 Prozent stieg.
HBM4E und Custom-HBM-Lösungen in Planung
Das Unternehmen plant, die technische Zusammenarbeit mit globalen GPU-Herstellern und Hyperscalern wie Google und Amazon zu erweitern. Prognosen zufolge erwartet Samsung, dass der HBM-Absatz im Jahr 2026 im Vergleich zu 2025 um mehr als das Dreifache steigen wird, weshalb die Produktionskapazitäten bereits jetzt ausgebaut werden.
Nach der Markteinführung von HBM4 soll die Bemusterung von HBM4E in der zweiten Hälfte des Jahres 2026 beginnen. Muster für kundenspezifische Custom-HBM-Lösungen werden ab 2027 ausgeliefert. Samsung bezeichnet diese Lösungen als cHBM und zHBM.
Samsung HBM4 Highlights und technische Daten
- 10nm-Klasse (1c) DRAM-Fertigungstechnologie
- 4nm Logik-Die Fertigungsprozess
- 11,7 - 13,0 Gbps Pin-Geschwindigkeiten
- 3,3 TB/s Bandbreite pro Stack
- 24-36 GB Kapazität im 12-Hi Design
- 48 GB Kapazität im 16-Hi Design
- 2.048 Pin I/O-Architektur
- 40 % Steigerung der Energieeffizienz gegenüber HBM3E
- 10 % besserer Wärmewiderstand im Vergleich zu HBM3E
- 30 % höhere Wärmeableitung gegenüber HBM3E
- Serienproduktion und Auslieferung von HBM4 gestartet
- HBM4E-Samples für die zweite Jahreshälfte 2026 geplant





