SK Hynix hiện có kế hoạch bắt đầu sản xuất hàng loạt bộ nhớ HBM3E 12 lớp vào cuối tháng 9, dự báo sự bùng bổ của thị trường AI trong giai đoạn tiếp theo.
HBM hiện đóng vai trò quan trọng trong sự phát triển của khả năng tính toán AI, vì nó được coi là một thành phần quan trọng trong quá trình sản xuất bộ tăng tốc AI. Hiện tại, ngành công nghiệp đang tập trung vào HBM3E 8 lớp, được trang bị trong kiến trúc Blackwell của NVIDIA. Tuy nhiên, vẫn còn một biến thể HBM3E vượt trội hơn trên thị trường, tập trung vào cấu hình 12 lớp mang lại dung lượng bộ nhớ và tốc độ truyền cao hơn.
SK Hynix đã trở thành một trong những công ty đầu tiên công bố sản xuất hàng loạt HBM3E 12 lớp, họ tuyên bố rằng việc vận chuyển các lô hàng đầu tiên dự kiến sẽ bắt đầu vào quý tiếp theo. HBM3E 12 lớp sẽ vượt trội hơn nhiều so với các tiêu chuẩn HBM hiện có, cung cấp dung lượng cao hơn, chạy 36 GB cho mỗi layer so với 24 GB trên HBM3E 8 lớp.
Hơn nữa, các chuyên gia còn cho rằng đây là một quy trình hiệu quả hơn do SK Hynix tích hợp công nghệ TSV (Through-Silicon Via), cho phép truyền dữ liệu hiệu quả và giảm thiểu mất tín hiệu. HBM3E 12 lớp vẫn chưa được thị trường chính thức áp dụng nhưng có tin đồn rằng NVIDIA có thể sẽ sử dụng nó trong các sản phẩm phái sinh “nâng cao” của GPU AI Hopper và Blackwell.
Sẽ không sai khi nói rằng SK Hynix là một trong những công ty hàng đầu trong ngành HBM, vì gã khổng lồ Hàn Quốc dự kiến cũng sẽ giới thiệu các mô-đun HBM4 tiên tiến của mình vào năm tới. Tiêu chuẩn bộ nhớ đặc biệt này mang tính cách mạng hóa thị trường AI.
Nguồn: wccftech