AMD đã nhấn mạnh tầm quan trọng của CPU EPYC đối với phân khúc trung tâm dữ liệu trong bài phát biểu quan trọng về Advancing AI.
Tầm quan trọng của các sản phẩm CPU EPYC đối với phân khúc tính toán AI là rất lớn, vì bộ xử lý đóng vai trò thiết yếu trong các tình huống đào tạo/suy luận ngoài các bộ tăng tốc AI. Trong vài quý vừa qua, AMD đã mở rộng sự hiện diện của mình trong phân khúc DC, đặc biệt là với các sản phẩm CPU máy chủ EPYC. Và trong bài phát biểu quan trọng tại Advancing AI, Phó chủ tịch điều hành của AMD, Forrest Norrod, đã đi sâu vào tầm quan trọng của việc có sự kết hợp CPU + GPU cân bằng trong phân khúc máy chủ.
AMD chính thức so sánh bộ xử lý Intel Xeon 8592+ thế hệ thứ 5 với CPU máy chủ EPYC 9575F, cả hai đều được trang bị bộ tăng tốc AI Instinct MI300X và cho thấy sự khác biệt lớn về hiệu suất nếu không có nền tảng CPU phù hợp trên bo mạch. Trước khi đi sâu vào các điểm chuẩn, chúng ta hãy đánh giá tính công bằng của việc lựa chọn CPU.
Tất nhiên, AMD đã sử dụng dòng CPU EPYC 9005 mới nhất của họ, so sánh với Xeon 8592+, được ra mắt cách đây gần hai năm. Về thông số kỹ thuật trên lý thuyết, cả hai CPU đều cung cấp cấu hình 64 nhân/128 luồng, với TDP tương tự; do đó, ít nhất thì trên lý thuyết hiệu năng của cả hai là cân bằng.
Các điểm chuẩn mà AMD chia sẻ cho chúng ta thấy rằng việc áp dụng nền tảng EPYC 9005 “có thể” vượt trội hơn khi mang lại hiệu suất tăng trung bình 6% qua nhiều bài kiểm tra trên mô hình AI Llama 3.1 8B và sự khác biệt này vượt 17% khi số lượng tham số tăng lên. Các bài kiểm tra chủ yếu đi sâu vào nhiều khối lượng công việc suy luận, cho thấy rằng việc có tùy chọn CPU máy chủ phù hợp trên bo mạch sẽ ảnh hưởng rất lớn đến hiệu suất tổng thể.
Nguồn: wccftech