Samsung dự kiến bắt đầu giao HBM4 vào cuối tháng này, mở ra lợi thế quan trọng trong cuộc đua bộ nhớ băng thông cao cho AI và có thể trở thành hãng đầu tiên thương mại hóa dòng chip được xem là “đổi cuộc chơi” cho điện toán AI.
Động thái này diễn ra sau kỳ nghỉ Tết Âm lịch và được cho là gắn chặt với lộ trình sản phẩm của Nvidia, trong bối cảnh nhu cầu từ trung tâm dữ liệu AI tăng mạnh khiến thị trường HBM trở thành điểm nóng cạnh tranh giữa các hãng bộ nhớ.
- Samsung dự tính giao HBM4 cho Nvidia sớm nhất vào tuần thứ 3 của tháng 2.
- HBM4 đạt khoảng 11,7 Gbps, cao hơn chuẩn JEDEC 8 Gbps; băng thông tối đa 3 TB/giây mỗi stack.
- Samsung mở rộng năng lực 1c DRAM lên khoảng 200.000 wafer/tháng để phục vụ HBM4.
Samsung dự kiến bắt đầu giao HBM4 sau Tết Âm lịch
Samsung được kỳ vọng sẽ khởi động các lô giao hàng HBM4 sau kỳ nghỉ Tết Âm lịch, với các chuyến hàng đầu tiên có thể diễn ra ngay trong tháng này theo các nguồn tin trong ngành.
Việc bắt đầu giao HBM4 được xem là bước ngoặt về triển vọng cạnh tranh của Samsung, sau giai đoạn hãng chịu nhiều nghi vấn về sức cạnh tranh ở các thế hệ HBM trước. Khi nhu cầu HBM tăng mạnh nhờ trung tâm dữ liệu AI, Samsung đặt mục tiêu thu hẹp khoảng cách và thậm chí vượt đối thủ cùng thành phố là SK hynix, doanh nghiệp đã sớm bứt lên ở phân khúc này.
Một quan chức trong ngành cho rằng việc sớm đưa HBM4 vào nhịp giao hàng giúp Samsung có “độ hồi phục” cần thiết trong mảng công nghệ. Một nguồn khác nhấn mạnh lợi thế “định hình thị trường” đến từ việc đi trước trong sản xuất hàng loạt dòng HBM4 hiệu năng cao nhất.
Samsung có thể giao HBM4 cho Nvidia từ tuần thứ 3 của tháng 2
Các nguồn tin cho biết Samsung có kế hoạch bắt đầu giao HBM4 cho Nvidia sớm nhất vào tuần thứ 3 của tháng 2, để dùng cho nền tảng tăng tốc AI thế hệ mới mang tên Vera Rubin.
Nvidia được kỳ vọng sử dụng HBM4 trong nền tảng AI accelerator Vera Rubin. Các thông tin trong ngành cũng cho biết Nvidia có thể công bố các accelerator Vera Rubin tích hợp HBM4 tại hội nghị thường niên GTC 2026, dự kiến diễn ra vào cuối tháng này.
Samsung cho biết thời điểm giao hàng được chốt sau khi phối hợp với lộ trình sản phẩm của Nvidia và lịch thử nghiệm hệ thống ở hạ tầng “downstream” (cấp hệ thống). Điều này hàm ý việc giao HBM4 không chỉ phụ thuộc tiến độ sản xuất, mà còn phụ thuộc các mốc kiểm thử tích hợp và xác nhận tương thích trong chuỗi cung ứng phần cứng AI.
HBM4 của Samsung vượt chuẩn JEDEC về tốc độ truyền dữ liệu
HBM4 của Samsung được nêu có tốc độ truyền dữ liệu khoảng 11,7 Gbps, cao hơn đáng kể so với chuẩn JEDEC 8 Gbps.
Về cách tiếp cận công nghệ, Samsung cho biết ngay từ đầu hãng đặt mục tiêu nâng chuẩn vượt JEDEC, thông qua việc kết hợp quy trình DRAM “10 nm-class” thế hệ 6 (1c) với logic die 4 nm do hãng tự sản xuất. Đây là điểm đáng chú ý vì HBM không chỉ là DRAM xếp chồng, mà còn phụ thuộc mạnh vào logic die và khả năng đóng gói/ghép nối để đạt băng thông và hiệu suất trong các hệ thống AI.
Theo mô tả, mức 11,7 Gbps tương ứng cao hơn khoảng 37% so với chuẩn 8 Gbps, đồng thời được nêu là cao hơn 22% so với thế hệ trước HBM3E. Các con số này nhấn mạnh mục tiêu của Samsung là tối ưu tốc độ liên kết bộ nhớ cho bài toán tính toán AI vốn nhạy với băng thông.
Băng thông mỗi stack đạt 3 TB/giây và dung lượng có thể lên tới 48 GB
Các nguồn tin cho biết băng thông bộ nhớ mỗi stack của HBM4 có thể đạt tối đa 3 TB/giây, cùng thiết kế xếp chồng 12-high cho dung lượng 36 GB; cấu hình 16-high trong tương lai có thể đạt 48 GB.
Theo thông tin được nêu, mức 3 TB/giây cao khoảng 2,4 lần so với thế hệ trước. Về dung lượng, thiết kế 12-high hướng tới mức tối đa 36 GB, phục vụ các mô hình AI cần không gian bộ nhớ lớn và băng thông cao để giữ dữ liệu gần GPU/accelerator.
Ước tính trong ngành cho thấy nếu chuyển sang cấu hình 16-high, dung lượng có thể tăng lên 48 GB. Trong thực tế triển khai, dung lượng/stack cao hơn có thể giúp giảm số lượng stack cần dùng cho cùng dung lượng tổng, từ đó hỗ trợ tối ưu không gian, công suất và thiết kế bo mạch cho các cụm tăng tốc AI.
Samsung kỳ vọng cải thiện yield và tối ưu điện năng khi mở rộng sản xuất
Dù dùng quy trình tiên tiến, Samsung được cho là đã đạt yield ổn định trước giai đoạn sản xuất hàng loạt, và còn dư địa cải thiện khi tăng sản lượng; hãng cũng nhấn mạnh HBM4 hướng tới hiệu năng cao đi kèm giảm tiêu thụ điện.
Các nguồn tin trong ngành cho biết việc đạt yield ổn định trước mass production là yếu tố then chốt, vì HBM đòi hỏi chất lượng đồng đều để giảm tỷ lệ lỗi khi đóng gói xếp chồng nhiều lớp. Khi sản lượng tăng, quy trình thường tiếp tục được tối ưu để cải thiện hiệu suất sản xuất và chi phí trên mỗi đơn vị.
Về điện năng, Samsung nói HBM4 được thiết kế để tối đa hiệu năng tính toán đồng thời giảm tiêu thụ năng lượng, qua đó giúp trung tâm dữ liệu giảm chi phí điện và làm mát. Trong bối cảnh AI data center mở rộng nhanh, hiệu suất trên mỗi watt trở thành chỉ số cạnh tranh quan trọng ngang với băng thông thuần.
Samsung mở rộng năng lực wafer 1c DRAM để phục vụ HBM4
Samsung dự kiến mở rộng các dây chuyền tại Pyeongtaek Campus Line 4, nâng tổng sản lượng 1c DRAM cho HBM4 lên khoảng 200.000 wafer/tháng, tương đương gần 1/4 tổng công suất DRAM khoảng 780.000 wafer.
Samsung kỳ vọng sản lượng bán HBM năm nay “hơn gấp ba” so với năm trước và đã quyết định lắp thêm dây chuyền sản xuất tại Pyeongtaek Campus Line 4 để tăng công suất. Cơ sở này được cho là nhắm mức khoảng 100.000 đến 120.000 wafer mỗi tháng, dành cho 1c DRAM dùng trong các sản phẩm HBM4.
Năm trước, Samsung được nêu đã xây dựng năng lực khoảng 60.000 đến 70.000 wafer/tháng cho quy trình 1c DRAM. Với kế hoạch mở rộng, tổng sản lượng 1c dự kiến cho HBM4 có thể lên khoảng 200.000 wafer/tháng, chiếm khoảng 1/4 tổng năng lực sản xuất DRAM khoảng 780.000 wafer của Samsung.
Dự báo thị phần HBM4 nghiêng về SK hynix, Samsung theo sau
Theo SemiAnalysis, SK hynix được dự báo nắm khoảng 70% thị trường HBM4, trong khi Samsung chiếm khoảng 30%; Micron được nhận định đang ở thế bất lợi trong cuộc đua.
Nhận định thị trường cho rằng HBM4 có thể chủ yếu do Samsung và SK hynix chi phối, còn Micron Technology bị xem là đã tụt lại. Tổ chức theo dõi thị trường SemiAnalysis ước tính SK hynix có thể nắm khoảng 70% thị phần HBM4, còn Samsung khoảng 30%.
Các tỷ lệ này phản ánh lợi thế đi trước của SK hynix trong việc cung ứng HBM cho làn sóng nhu cầu AI data center. Tuy vậy, việc Samsung đẩy nhanh thời điểm giao HBM4, đồng thời mở rộng năng lực 1c DRAM, cho thấy hãng đặt mục tiêu giành lại vị thế bằng cả tiến độ thương mại hóa và quy mô sản xuất.
Những câu hỏi thường gặp
HBM4 là gì và vì sao quan trọng với điện toán AI?
HBM4 là thế hệ bộ nhớ băng thông cao (High-Bandwidth Memory) được tối ưu để cung cấp băng thông lớn cho GPU/AI accelerator. Với AI, băng thông và độ trễ bộ nhớ ảnh hưởng trực tiếp tới tốc độ huấn luyện và suy luận, nên HBM thường là thành phần then chốt trong phần cứng trung tâm dữ liệu.
Samsung dự kiến giao HBM4 cho Nvidia khi nào?
Các nguồn tin trong ngành cho biết Samsung có thể bắt đầu giao HBM4 cho Nvidia sớm nhất vào tuần thứ 3 của tháng 2, sau kỳ nghỉ Tết Âm lịch, phù hợp với lộ trình sản phẩm và lịch kiểm thử hệ thống của Nvidia.
Tốc độ HBM4 của Samsung cao hơn chuẩn JEDEC ra sao?
HBM4 của Samsung được nêu đạt khoảng 11,7 Gbps, trong khi chuẩn JEDEC là 8 Gbps. Điều này phản ánh mục tiêu vượt chuẩn về tốc độ truyền dữ liệu để phục vụ các nền tảng AI accelerator thế hệ mới.
Băng thông và dung lượng mỗi stack của HBM4 được nêu là bao nhiêu?
Theo các nguồn tin, băng thông mỗi stack có thể đạt tối đa 3 TB/giây. Thiết kế 12-high cho dung lượng tối đa 36 GB, và cấu hình 16-high trong tương lai có thể tăng đến 48 GB theo ước tính trong ngành.
Kế hoạch mở rộng sản xuất HBM4 của Samsung gồm những gì?
Samsung dự kiến bổ sung dây chuyền tại Pyeongtaek Campus Line 4. Tổng sản lượng 1c DRAM phục vụ HBM4 có thể lên khoảng 200.000 wafer/tháng, trên tổng công suất DRAM khoảng 780.000 wafer.


