HomeAIAWS và NVIDIA Tăng Cường Đám Mây AI với Dịch Vụ Siêu...

AWS và NVIDIA Tăng Cường Đám Mây AI với Dịch Vụ Siêu Tính Toán và AI Tạo Sinh

Published on

Trong một bước tiến quan trọng nhằm thúc đẩy trí tuệ nhân tạo dựa trên đám mây, Amazon Web Services – AWS và NVIDIA đã mở rộng quan hệ đối tác chiến lược của họ, công bố các dịch vụ siêu tính toán mới và dịch vụ AI tạo sinh nhằm mục đích cách mạng hóa AI tạo sinh.

Sự hợp tác này kết hợp cơ sở hạ tầng đám mây của AWS với công nghệ tính toán tiên tiến của NVIDIA, đánh dấu một thời điểm quan trọng cho các nhà phát triển và doanh nghiệp muốn khai thác sức mạnh của AI ở quy mô chưa từng có.

Trung tâm của thông báo này là việc giới thiệu chip siêu tính toán NVIDIA GH200 Grace Hopper trên AWS, biến AWS trở thành nhà cung cấp đám mây đầu tiên cung cấp khả năng siêu máy tính AI này. GH200 kết hợp GPU hiệu suất cao của NVIDIA với CPU dựa trên Arm hiệu quả, cung cấp bộ nhớ chia sẻ lên đến 20 TB, được thiết kế để đáp ứng nhu cầu của các công việc AI và máy học quy mô lớn. Thiết lập này tận dụng Elastic Fabric Adapter và Nitro System của AWS cho mạng lưới có băng thông cao, độ trễ thấp và bảo mật nâng cao, nhằm cung cấp hiệu suất siêu máy tính cho các ứng dụng AI tạo sinh.

NVIDIADGXCloudimage MMOSITE - Thông tin công nghệ, review, thủ thuật PC, gaming

Bên cạnh đó, sự hợp tác mang đến dịch vụ NVIDIA DGX Cloud trên AWS, lần đầu tiên tích hợp công nghệ GH200 NVL32 NVLink. Dịch vụ này hướng đến các nhà phát triển và doanh nghiệp, cung cấp một nền tảng mạnh mẽ để đào tạo các mô hình AI phức tạp, bao gồm cả những mô hình vượt quá 1 nghìn tỷ tham số. Quan hệ đối tác cũng tiết lộ Dự án Ceiba, một nỗ lực tạo ra siêu máy tính AI chạy GPU nhanh nhất thế giới, được thiết kế để tăng tốc nghiên cứu và phát triển AI của NVIDIA.

Để phục vụ cho một loạt các nhu cầu về AI, tính toán hiệu suất cao và đồ họa, AWS sẽ ra mắt các thực thể EC2 mới được cung cấp bởi GPU NVIDIA. Bao gồm thực thể P5e, được trang bị GPU NVIDIA H200 cho các tác vụ AI tạo sinh quy mô lớn, và các thực thể G6 và G6e, được cung cấp bởi GPU NVIDIA L4 và L40S, tương ứng, phù hợp cho suy luận AI, đồ họa và xử lý video. Các thực thể này được thiết kế để hỗ trợ các ứng dụng đòi hỏi cao như mô phỏng sinh học kỹ thuật số và mô hình hóa 3D chân thực sử dụng NVIDIA Omniverse.

Để tăng cường hệ sinh thái phát triển AI, NVIDIA đã giới thiệu các công cụ phần mềm mới trên AWS. Các Dịch vụ vi mô (microservice) của NVIDIA gồm NeMo Retriever, BioNeMo trên Amazon SageMaker, và sự tích hợp với NVIDIA Omniverse được thiết kế để tối ưu hóa quy trình làm việc AI trong các lĩnh vực như tạo chatbot, phát hiện thuốc mới và phát triển mô hình sinh học kỹ thuật số. Những công cụ này nhằm mục đích đơn giản hóa việc phát triển mô hình AI tùy chỉnh và nâng cao hiệu suất và độ chính xác của các ứng dụng AI.

Quan hệ đối tác giữa AWS và NVIDIA không chỉ nhấn mạnh cam kết của hai công ty trong việc thúc đẩy sự đổi mới trong AI mà còn thiết lập một tiêu chuẩn mới cho nguồn lực siêu tính toán dựa trên đám mây, cung cấp cho các doanh nghiệp và nhà phát triển các công cụ họ cần để mở rộng giới hạn của những gì có thể làm được với AI tạo sinh.

tin mới nhất

Galaxy AI sắp có mặt trên dòng Galaxy S22, Tab S8 và các dòng điện thoại gập 2022

Dòng S24 đã ra mắt cùng Galaxy AI, bộ công cụ AI được tùy...

Adobe Premiere Pro ra mắt loạt tính năng AI sáng tạo

Adobe đã chính thức bước chân vào cuộc đua AI, khi vừa giới thiệu...

Schneider Electric và NVIDIA hợp tác tiên phong trong công nghệ AI và bản sao số hóa

Schneider Electric công bố hợp tác với NVIDIA nhằm tối ưu hóa cơ sở hạ...

Viber áp dụng AI vào nhắn tin với sự ra mắt của Pi

Rakuten Viber tin rằng “trò chuyện là cách kết nối mới”. Vì vậy, họ...

Apple sẽ áp dụng Baidu AI tại Trung Quốc

Mặc dù Apple đang có kế hoạch hợp tác với Google để mang Gemini...

tin liên quan