Theo báo cáo, Trung Quốc đã tìm được giải pháp thay thế cho các bộ gia tốc AI “tiên tiến” nhất của NVIDIA, dự án mới nhất của DeepSeek đã mang lại hiệu suất gấp tám lần TFLOPS trên bộ tăng tốc AI Hopper H800s.
Trung Quốc đang chứng minh rằng mình không cần phụ thuộc vào bất kỳ ai để mở rộng quy mô phần cứng, vì các công ty nội địa, đáng chú ý là DeepSeek, đang sử dụng sức mạnh của phần mềm để tìm giải pháp thay thế bằng thiết bị họ có sẵn. Những bước đột phá mới nhất của DeepSeek là điều điên rồ nhất mà ngành AI từng chứng kiến, vì theo công ty, họ đã xoay xở để khai thác hiệu suất đáng kể từ GPU Hopper H800 của NVIDIA bằng cách tối ưu hóa mức tiêu thụ bộ nhớ và phân bổ tài nguyên trên các yêu cầu suy luận.
DeepSeek đang tổ chức một tuần “Nguồn mở”, nơi công ty có kế hoạch tiết lộ các công nghệ và công cụ sẽ dễ dàng tiếp cận với công chúng thông qua các kho lưu trữ Github. Ngày đầu tiên của sự kiện có vẻ là một khởi đầu tuyệt vời vì công ty đã tiết lộ FlashMLA, một “hạt nhân giải mã” được thiết kế riêng cho GPU Hopper của NVIDIA.
DeepSeek tuyên bố rằng họ đã có thể đạt được 580 TFLOPS nhân ma trận BF16 trên Hopper H800, cao hơn khoảng tám lần so với sức mạnh tiêu chuẩn. Không chỉ vậy, với việc sử dụng bộ nhớ hiệu quả, FlashMLA cho phép băng thông bộ nhớ lên tới 3000 GB/giây, gần gấp đôi mức trần lý thuyết của H800. Điểm quan trọng ở đây là tất cả những điều này trở nên khả thi chỉ thông qua các dòng mã chứ không phải cải tiến phần cứng.
FlashMLA của DeepSeek triển khai “nén giá trị khóa cấp thấp”, theo cách nói dễ hiểu, phân tích các khối dữ liệu thành các phần nhỏ hơn, cho phép xử lý nhanh hơn, cùng với việc giảm mức tiêu thụ bộ nhớ tới 40%-60%.
Sự phát triển của DeepSeek cho thấy thế giới điện toán AI không phụ thuộc vào một yếu tố duy nhất. Hiện tại, có vẻ như công cụ này chỉ dành riêng cho GPU Hopper và sẽ rất thú vị khi công cụ này được áp dụng với H100.
Nguồn: wccftech