Thị trường HBM, thường được cho là xương sống của ngành điện toán AI, dự kiến sẽ tăng gấp đôi doanh thu thị trường vào năm 2025, khi ngành này ra mắt các chip AI thế hệ mới.
Bộ nhớ băng thông cao là sản phẩm có nhu cầu tăng mạnh trong thời gian gần đây, đặc biệt là với sự ra đời của AI, điều này đã đưa các công ty như Samsung và SK hynix tham gia sâu vào lĩnh vực kinh doanh các giải pháp cho trí tuệ nhân tạo. Nhìn vào bối cảnh hiện tại, Samsung, SK hynix và Micron là ba ông lớn trong thị trường HBM và họ được kỳ vọng sẽ thống trị thị trường trong tương lai nhờ sự phát triển liên tục của AI.
Nhận thấy điều này, nhà nghiên cứu thị trường Gartner dự báo rằng thị trường HBM sẽ đạt con số doanh thu khổng lồ, lên đến 4,976 tỷ USD vào năm 2025, tăng gần gấp đôi khi nhìn vào những con số đã đạt được vào năm 2023. Ước tính này dựa trên nhu cầu hiện tại và tương lai, không có gì ngạc nhiên vì lĩnh vực chính mà ngành này là ứng dụng trong GPU AI. Như đã báo cáo nhiều lần trước đây, nhu cầu GPU AI tăng đột ngột đã tạo ra sự thiếu hụt HBM trên thị trường, vì đây là thành phần chính của bộ tăng tốc AI.
Ngoài ra, theo thông tin trước đó, ngành HBM dự kiến sẽ ra mắt các tiêu chuẩn mới, như HBM3e và HBM4 sẽ nhận được sự áp dụng rộng rãi trong sản xuất.
NVIDIA đã lên kế hoạch rất nhiều cho khách hàng của mình vào năm 2024, vì công ty đã công bố GPU H200 Hopper, dự kiến sẽ được áp dụng rộng rãi vào năm tới, sau đó là sự ra mắt của GPU AI B100 “Blackwell”, cả hai GPU đều sẽ dựa trên công nghệ bộ nhớ HBM3e. AMD cũng tương tự, với việc ra mắt GPU AMD Instinct thế hệ tiếp theo có công nghệ mới.
Nguồn: wccftech