HomeAIAWS và NVIDIA Tăng Cường Đám Mây AI với Dịch Vụ Siêu...

AWS và NVIDIA Tăng Cường Đám Mây AI với Dịch Vụ Siêu Tính Toán và AI Tạo Sinh

Published on

Trong một bước tiến quan trọng nhằm thúc đẩy trí tuệ nhân tạo dựa trên đám mây, Amazon Web Services – AWS và NVIDIA đã mở rộng quan hệ đối tác chiến lược của họ, công bố các dịch vụ siêu tính toán mới và dịch vụ AI tạo sinh nhằm mục đích cách mạng hóa AI tạo sinh.

Sự hợp tác này kết hợp cơ sở hạ tầng đám mây của AWS với công nghệ tính toán tiên tiến của NVIDIA, đánh dấu một thời điểm quan trọng cho các nhà phát triển và doanh nghiệp muốn khai thác sức mạnh của AI ở quy mô chưa từng có.

Trung tâm của thông báo này là việc giới thiệu chip siêu tính toán NVIDIA GH200 Grace Hopper trên AWS, biến AWS trở thành nhà cung cấp đám mây đầu tiên cung cấp khả năng siêu máy tính AI này. GH200 kết hợp GPU hiệu suất cao của NVIDIA với CPU dựa trên Arm hiệu quả, cung cấp bộ nhớ chia sẻ lên đến 20 TB, được thiết kế để đáp ứng nhu cầu của các công việc AI và máy học quy mô lớn. Thiết lập này tận dụng Elastic Fabric Adapter và Nitro System của AWS cho mạng lưới có băng thông cao, độ trễ thấp và bảo mật nâng cao, nhằm cung cấp hiệu suất siêu máy tính cho các ứng dụng AI tạo sinh.

NVIDIADGXCloudimage MMOSITE - Thông tin công nghệ, review, thủ thuật PC, gaming

Bên cạnh đó, sự hợp tác mang đến dịch vụ NVIDIA DGX Cloud trên AWS, lần đầu tiên tích hợp công nghệ GH200 NVL32 NVLink. Dịch vụ này hướng đến các nhà phát triển và doanh nghiệp, cung cấp một nền tảng mạnh mẽ để đào tạo các mô hình AI phức tạp, bao gồm cả những mô hình vượt quá 1 nghìn tỷ tham số. Quan hệ đối tác cũng tiết lộ Dự án Ceiba, một nỗ lực tạo ra siêu máy tính AI chạy GPU nhanh nhất thế giới, được thiết kế để tăng tốc nghiên cứu và phát triển AI của NVIDIA.

Để phục vụ cho một loạt các nhu cầu về AI, tính toán hiệu suất cao và đồ họa, AWS sẽ ra mắt các thực thể EC2 mới được cung cấp bởi GPU NVIDIA. Bao gồm thực thể P5e, được trang bị GPU NVIDIA H200 cho các tác vụ AI tạo sinh quy mô lớn, và các thực thể G6 và G6e, được cung cấp bởi GPU NVIDIA L4 và L40S, tương ứng, phù hợp cho suy luận AI, đồ họa và xử lý video. Các thực thể này được thiết kế để hỗ trợ các ứng dụng đòi hỏi cao như mô phỏng sinh học kỹ thuật số và mô hình hóa 3D chân thực sử dụng NVIDIA Omniverse.

Để tăng cường hệ sinh thái phát triển AI, NVIDIA đã giới thiệu các công cụ phần mềm mới trên AWS. Các Dịch vụ vi mô (microservice) của NVIDIA gồm NeMo Retriever, BioNeMo trên Amazon SageMaker, và sự tích hợp với NVIDIA Omniverse được thiết kế để tối ưu hóa quy trình làm việc AI trong các lĩnh vực như tạo chatbot, phát hiện thuốc mới và phát triển mô hình sinh học kỹ thuật số. Những công cụ này nhằm mục đích đơn giản hóa việc phát triển mô hình AI tùy chỉnh và nâng cao hiệu suất và độ chính xác của các ứng dụng AI.

Quan hệ đối tác giữa AWS và NVIDIA không chỉ nhấn mạnh cam kết của hai công ty trong việc thúc đẩy sự đổi mới trong AI mà còn thiết lập một tiêu chuẩn mới cho nguồn lực siêu tính toán dựa trên đám mây, cung cấp cho các doanh nghiệp và nhà phát triển các công cụ họ cần để mở rộng giới hạn của những gì có thể làm được với AI tạo sinh.

tin mới nhất

Samsung HBM3 vượt qua bài kiểm tra chất lượng của NVIDIA

Samsung cuối cùng đã vượt qua giai đoạn thẩm định của NVIDIA đối với...

ASRock ra mắt RX 7900 XTX & RX 7900 XT Passive với hệ thống tản nhiệt Vapor Chamber

ASRock vừa bổ sung hai GPU Radeon RX 7900 XTX & 7900 XT Passive...

COLORFUL Giới Thiệu Bo Mạch Chủ CVN Z790D5 ARK FROZEN

Công ty TNHH Công Nghệ COLORFUL, nhà sản xuất linh kiện máy tính để...

Cadillac Sollei mang đến cái nhìn thoáng qua về tương lai của xe mui trần hạng sang tại Mỹ

Thương hiệu ô tô hạng sang của Mỹ - Cadillac vừa trình làng một...

AMD trình làng APU Ryzen AI 9 HX 375 “Strix” – AI SOC mạnh nhất thế giới với 55 TOPS NPU

AMD vừa trình làng APU Ryzen AI 9 HX 375 "Strix", đây là AI...

tin liên quan