spot_img
HomeCông NghệNVIDIA nâng cấp NVIDIA Hopper - Nền Tảng Tính Toán Trí Tuệ...

NVIDIA nâng cấp NVIDIA Hopper – Nền Tảng Tính Toán Trí Tuệ Nhân Tạo Hàng Đầu Thế Giới

Published on

NVIDIA vừa công bố nền tảng tính toán trí tuệ nhân tạo (AI) hàng đầu thế giới NVIDIA HGX H200. Dựa trên kiến trúc NVIDIA Hopper, nền tảng này sử dụng GPU Tensor Core NVIDIA H200 với bộ nhớ cấp tiến để xử lý lượng dữ liệu khổng lồ cho các nhiệm vụ trí tuệ nhân tạo sáng tạo và tính toán hiệu suất cao.

hpc press hgx h100 MMOSITE - Thông tin công nghệ, review, thủ thuật PC, gaming

NVIDIA H200 là GPU đầu tiên trang bị HBM3e – bộ nhớ nhanh hơn và lớn hơn để đẩy nhanh quá trình tăng tốc trí tuệ nhân tạo sáng tạo và mô hình ngôn ngữ lớn, đồng thời thúc đẩy tính toán khoa học cho các nhiệm vụ tính toán hiệu suất cao (HPC). Với HBM3e, NVIDIA H200 cung cấp 141GB bộ nhớ tại tốc độ 4,8 terabytes mỗi giây, gần gấp đôi dung lượng và 2,4 lần băng thông so với tiền bối NVIDIA A100.

Các hệ thống được trang bị NVIDIA H200 từ các nhà sản xuất máy chủ hàng đầu thế giới và các nhà cung cấp dịch vụ đám mây dự kiến sẽ bắt đầu xuất hàng vào quý II năm 2024.

“Để tạo ra trí tuệ với trí tuệ nhân tạo sáng tạo và các ứng dụng HPC, lượng dữ liệu lớn phải được xử lý một cách hiệu quả ở tốc độ cao bằng bộ nhớ GPU lớn và nhanh”, Ian Buck, Phó Chủ tịch hyperscale và HPC tại NVIDIA nói. “Với NVIDIA H200, nền tảng siêu máy tính trí tuệ nhân tạo từ đầu đến cuối hàng đầu của ngành đã nhanh hơn để giải quyết một số thách thức quan trọng nhất trên thế giới.”

Đổi mới và nhảy vọt về hiệu suất vĩnh viễn

Kiến trúc NVIDIA Hopper mang lại một sự nhảy vọt về hiệu suất không giới hạn so với người tiền nhiệm và tiếp tục đặt ra một mức tiêu chuẩn mới thông qua việc cải thiện phần mềm liên tục với H100, bao gồm việc ra mắt gần đây các thư viện mã nguồn mở mạnh mẽ như NVIDIA TensorRT-LLM.

1511 NVIDIA GPU H200 2 MMOSITE - Thông tin công nghệ, review, thủ thuật PC, gaming

Việc giới thiệu H200 sẽ dẫn đến những bước nhảy vọt về hiệu suất tiếp theo, bao gồm gần gấp đôi tốc độ suy luận trên Llama 2, một mô hình LLM với 70 tỷ tham số, so với H100. Dự kiến sẽ có thêm sự lãnh đạo về hiệu suất và cải thiện với H200 thông qua các bản cập nhật phần mềm trong tương lai.

Các phiên bản Của NVIDIA H200

NVIDIA H200 sẽ có sẵn trong các bo mạch máy chủ NVIDIA HGX H200 với cấu hình bốn và tám lõi, tương thích với cả phần cứng và phần mềm của các hệ thống HGX H100. Nó cũng có sẵn trong NVIDIA GH200 Grace Hopper Superchip với HBM3e, được công bố vào tháng 8.

Với những tùy chọn này, H200 có thể triển khai trong mọi loại trung tâm dữ liệu, bao gồm trên cơ sở, đám mây, đám mây lai và điểm cuối. Hệ sinh thái toàn cầu của đối tác sản xuất máy chủ của NVIDIA – bao gồm ASRock Rack, ASUS, Dell Technologies, Eviden, GIGABYTE, Hewlett Packard Enterprise, Ingrasys, Lenovo, QCT, Supermicro, Wistron và Wiwynn – có thể cập nhật hệ thống hiện có của họ với H200.

51956 MMOSITE - Thông tin công nghệ, review, thủ thuật PC, gaming
H200 – Chip AI mạnh nhất thế giới của Nvidia

Amazon Web Services, Google Cloud, Microsoft Azure và Oracle Cloud Infrastructure sẽ là những nhà cung cấp dịch vụ đám mây đầu tiên triển khai các phiên bản dựa trên H200 bắt đầu từ năm sau, cùng với CoreWeave, Lambda và Vultr.

Được hỗ trợ bởi NVIDIA NVLink và NVSwitch, HGX H200 cung cấp hiệu suất cao nhất trên nhiều nhiệm vụ ứng dụng khác nhau, bao gồm đào tạo và suy luận LLM cho các mô hình lớn vượt quá 175 tỷ tham số.

Một bộ HGX H200 tám lõi cung cấp hơn 32 petaflops tính toán đào tạo FP8 và tổng cộng 1,1TB bộ nhớ băng thông cao cho hiệu suất cao nhất trong trí tuệ nhân tạo sáng tạo và ứng dụng HPC.

Khi kết hợp với CPU NVIDIA Grace với kết nối siêu nhanh NVLink-C2C, H200 tạo ra GH200 Grace Hopper Superchip với HBM3e – một mô-đun tích hợp được thiết kế để phục vụ các ứng dụng HPC và AI quy mô khổng lồ.

Tăng tốc Trí tuệ nhân tạo với Phần mềm toàn diện Của NVIDIA

Nền tảng tính toán tăng cường của NVIDIA được hỗ trợ bởi các công cụ phần mềm mạnh mẽ giúp các nhà phát triển và doanh nghiệp xây dựng và tăng tốc các ứng dụng sẵn sàng cho sản xuất từ trí tuệ nhân tạo đến HPC. Điều này bao gồm bộ phần mềm NVIDIA AI Enterprise dành cho các nhiệm vụ như phát triển phần mềm phát biểu, hệ thống gợi ý và suy luận quy mô lớn.

NVIDIA H200 sẽ có sẵn từ các nhà sản xuất hệ thống toàn cầu và các nhà cung cấp dịch vụ đám mây hàng đầu bắt đầu từ quý II năm 2024.

tin mới nhất

Chip M5 Pro và M5 Max sẽ sử dụng công nghệ SoIC-MH của TSMC để tách CPU và GPU

Hôm nay, nhà phân tích Mng-Chi Kuo đã chia sẻ một số chi tiết...

 “Tiên phong AI – trải nghiệm phi thường” với các giải pháp AI toàn diện của ASUS tại Việt Nam

ASUS nhìn thấy tiềm năng tăng trưởng của thị trường laptop AI tại...

ASUS giới thiệu laptop AI Vivobook S 14 mới: mỏng nhẹ mạnh mẽ với bộ xử lý Intel Core Ultra Series 2

Hôm nay, ASUS chính thức ra mắt dòng laptop AI Vivobook S 14 (S5406SA)...

Đón Giáng sinh và năm mới 2025 cùng Kingston: Kết nối công nghệ, lan tỏa niềm vui

Hòa nhịp không khí Giáng sinh cuối năm và chào mừng năm mới, Kingston...

tin liên quan

Thế hệ GPU NVIDIA Hopper đang được sản xuất đại trà

NVIDIA hôm nay đã thông báo rằng NVIDIA H100...