Epic Games Store là đứa con mà Epic đã ấp ủ từ lâu và mặc dù Apple và Google đã gây rất nhiều sức ép trong khoảng thời gian qua nhưng Epic đã chiến thắng trong cuộc chiến pháp lý và giờ Epic Games Store có quyền khởi chạy bất cứ lúc nào.
Epic Games đã đăng một số thông tin về Epic Games Store trên Twitter. Mặc dù hiện tại nó còn trong giai đoạn teaser nhưng ít nhất chúng ta cũng biết giao diện của cửa hàng sắp ra mắt như thế nào. Cửa hàng sẽ được ra mắt trên cả Android và iOS.
Giờ đây, khi đã có sự xuất hiện của Epic Games Store, các nhà phát triển sẽ được chia doanh thu một cách công bằng. Hiện tại, EGS có mức chia doanh thu 88/12%, trong đó các nhà phát triển được giữ 88% doanh thu trong khi cửa hàng chỉ giữ 12%. Chúng ta có thể mong đợi điều gì đó tương tự với Epic Games Store.
Đây chắc chắn là một tin tức thú vị dành cho tất cả các game thủ di động. Về các tựa game, chúng tôi hy vọng một số IP gốc của Epic sẽ xuất hiện tại Epic Games Store. Không những vậy, tôi còn coi đây là một thắng lợi rất lớn, vì sau tất cả diễn biến giữa Epic, Google và Apple, đây chắc chắn là điều mà Epic xứng đáng có được. Đặc biệt là khi bạn nhìn vào tất cả những thử thách mà công ty đã trải qua.
Innodisk, nhà cung cấp giải pháp AI hàng đầu toàn cầu, đã và đang trình diễn công nghệ chuyên môn tích hợp AI tại biên (EdgeAI) trong sự kiện NVIDIA GTC 2024. Innodisk chuyên về việc tích hợp và phát triển giải pháp AI tùy chỉnh có thể mở rộng trong nhiều ngành công nghiệp.
Công ty này đang tích cực chia sẻ nghiên cứu và triển khai thực tế của Edge AI với các ngành công nghiệp trên toàn thế giới, trình bày cách các mô-đun camera của họ khi tích hợp với công nghệ hình ảnh AI chuyên biệt của NVIDIA.
Thúc Đẩy Giải Pháp Nhà Máy Thông Minh
Tại GTC, Innodisk đang trình bày giải pháp sản xuất thông minh được cung cấp bởi công nghệ NVIDIA Metropolis cho các nhà máy. Nổi bật với khả năng phát hiện lỗi AOI (phát hiện các thành phần đặt không đúng vị trí). Cuộc trình diễn này sẽ làm nổi bật khả năng của mô-đun camera USB cho ánh sáng yếu EV2U-SGR1 nhằm tăng cường hiệu suất cho nhà máy thông minh bằng cách vượt qua các ràng buộc về ánh sáng yếu. Mô-đun này với thông số kỹ thuật ống kính độc đáo và các chức năng 3A tùy chỉnh (tự động lấy nét, tự động phơi sáng, tự động cân bằng trắng) đảm bảo việc chụp chi tiết sản phẩm rõ ràng và kiểm tra chất lượng chính xác, ngay cả trong điều kiện ánh sáng yếu thường gặp của môi trường sản xuất. Ngoài ra, ứng dụng của nó còn mở rộng cho nhu cầu an toàn và bảo vệ, cho phép giám sát nhà máy toàn diện và chính xác để nâng cao an toàn.
“Các công cụ và khung công tác AI từ NVIDIA thúc đẩy sự đổi mới, được bổ sung bởi phương pháp tiếp cận tập trung vào khách hàng và kinh nghiệm tích hợp sâu của Innodisk, chuyển đổi AI thành giải pháp thực tiễn” Randy Chien, Chủ tịch Innodisk giải thích. “Phương pháp tiếp cận tập trung vào khách hàng này là chìa khóa để kết nối công nghệ AI tiên tiến với các giải pháp ngành công nghiệp thực tế“
Các ứng dụng AI mà Innodisk trình diễn tại GTC sử dụng các công cụ phát triển chính từ một nền tảng phần cloud-native đầu cuối. Nền tảng này sẽ bao gồm NVIDIA TAO Toolkit được dùng cho việc huấn luyện mô hình, NVIDIA Triton Inference Server cho việc triển khai và quản lý mô hình, và DeepStream SDK cho việc suy luận AI, tất cả được gói gọn dưới dạng các dịch vụ vi mô có thể được điều khiển bằng các REST-APIs trực quan. NVIDIA AI Enterprise tăng tốc các quy trình khoa học dữ liệu và làm cho việc phát triển và triển khai các ứng dụng AI đẳng cấp sản xuất trở nên mạch lạc hơn. Việc áp dụng chiến lược này đã giúp tiết kiệm đáng kể trong việc kiểm định và tạo điều kiện cho các dịch vụ tùy chỉnh đầu cuối linh hoạt cao.
Đáp ứng nhu cầu ngày càng tăng đối với phần cứng AI cạnh, Innodisk cũng sẽ trưng bày các SSD công nghiệp, sản phẩm bộ nhớ và mô-đun mở rộng tại GTC. Các sản phẩm này nhấn mạnh độ bền và khả năng thích ứng, đáp ứng nhu cầu thiết yếu cho việc duy trì hoạt động của hệ thống Edge AI. Bằng cách tích hợp các trang bị AI Aetina và tận dụng việc tích hợp nguồn lực nhóm, Innodisk trao quyền cho các ứng dụng AI của khách hàng đáp ứng được nhu cầu đa dạng của ngành công nghiệp.
Hãy ghé thăm Innodisk tại gian hàng 338 trong suốt sự kiện GTC để khám phá các giải pháp AI tùy chỉnh của công ty.
Samsung hợp tác với Galaxy Studio vì mục tiêu nâng tầm trải nghiệm xem phim tại rạp cho khán giả điện ảnh Việt Nam, thông qua các giải pháp hiển thị chuyên dụng cùng những sản phẩm công nghệ tiên phong.
Công ty Điện tử Samsung Vina (Samsung) chính thức ký kết biên bản ghi nhớ (MOU) với Công ty Cổ phần Phim Thiên Ngân (Galaxy Studio), đánh dấu mối quan hệ hợp tác chiến lược trong việc triển khai giải pháp màn hình chuyên dụng và các sản phẩm công nghệ tiên tiến tại hệ thống của Galaxy Studio trên toàn quốc. Theo đó, với những giải pháp tiên phong về công nghệ, Samsung và Galaxy Studio mong muốn nâng tầm trải nghiệm không gian điện ảnh dành cho khán giả đến trải nghiệm.
Phát biểu tại buổi lễ ký kết, Ông GunSoo Ha – Giám Đốc Cố Vấn Chiến Lược Ngành Hàng Công Nghệ Thông Tin và Khối Doanh Nghiệp – Samsung chia sẻ: “Là thương hiệu số 1 trong lĩnh vực công nghệ hiển thị và liên tục dẫn đầu thị trường suốt 14 năm qua, Samsung không ngừng cải tiến nhằm tạo ra những chuẩn mực mới về trải nghiệm giải trí cho người dùng. Việc hợp tác cùng Galaxy Studio – đơn vị sở hữu mạng lưới rạp chiếu rộng lớn, chúng tôi sẽ cùng nhau mở ra hành trình mới, nâng cao trải nghiệm điện ảnh tuyệt vời cho khách hàng ở khắp mọi miền đất nước.”
Trong bối cảnh thế giới đang dần hồi phục sau đại dịch Covid, khao khát về những trải nghiệm điện ảnh đang trỗi dậy mạnh mẽ hơn bao giờ hết. Thông qua việc hợp tác này, Samsung và Galaxy Cinema sẽ cùng nhau nâng cao trải nghiệm của khách hàng khi tới rạp chiếu phim.
Sử dụng công nghệ hiển thị tiên tiến, bắt mắt từ Samsung, khách hàng dễ dàng bị thu hút bởi thông tin về các bộ phim nổi tiếng đang công chiếu ngay từ khi khách hàng bước vào rạp. Samsung và Galaxy Cinema hy vọng việc hợp tác này sẽ không chỉ thay đổi cuộc chơi mà còn tiến tới tạo ra một chuẩn mực mới về trải nghiệm điện ảnh mới.
Cũng tại buổi lễ ký kết, bà Nguyễn Thị Mai Hoa, Tổng Giám đốc Galaxy Studio, cho biết:“Sự hợp tác này không chỉ là sự gắn kết giữa hai thương hiệu hàng đầu trong lĩnh vực giải trí và điện tử – công nghệ, mà còn là sự khẳng định về một tầm nhìn chung, nơi mà sự đổi mới, tăng trưởng bền vững và theo đuổi sự xuất sắc được đặt lên hàng đầu. Galaxy Studio, với vị thế uy tín tại Việt Nam trong lĩnh vực giải trí, và Samsung – tập đoàn toàn cầu về công nghệ và điện tử tiêu dùng, xây dựng mối quan hệ chiến lược để tạo một chặng đường phát triển mới.”Galaxy Studio – một trong những đơn vị phát hành, sản xuất phim và vận hành chuỗi rạp chiếu phim hàng đầu tại Việt Nam.Trải qua hành trình 20 năm xây dựng và phát triển, Galaxy Studio đã đạt được nhiều thành tựu ấn tượng với hệ thống 20 rạp chiếu phim trên khắp cả nước. Ngày 20/12/2023, Galaxy Studio ra mắt rạp chiếu phim cao cấp Galaxy Sala tại trung tâm Thương mại Thiso Mall Sala, Thành phố Thủ Đức, Tp. Hồ Chí Minh, được đánh giá là điểm đến yêu thích của giới trẻ đam mê điện ảnh.
Lễ ký kết thỏa thuận hợp tác giữa Samsung và Galaxy Studio chính là một bước tiến quan trọng trong hành trình hợp tác giữa hai bên, nâng cao sức mạnh cộng hưởng mang đến những trải nghiệm vượt chuẩn dành cho khán giả điện ảnh. Trong tương lai, Samsung và Galaxy Studio kỳ vọng sẽ tiếp tục mở rộng danh mục các giải pháp công nghệ hợp tác để tối ưu hóa tiềm năng và gia tăng trải nghiệm xem phim cho khách hàng.
Samsung sẽ ra mắt Galaxy Z Fold 6 và Galaxy Z Flip 6 vào tháng 7, và cho đến nay, đã có rất nhiều thông tin dự đoán trước về chiếc điện thoại thông minh này. Nổi bật nhất chính là thông tin về việc chiếc điện thoại có thể ra mắt cùng chipset Exynos 2400 thay vì Snapdragon 8 Gen 3.
Samsung đã trang bị dòng chipset Snapdragon của Qualcomm cho các sản phẩm Galaxy Z Flip kể từ khi chúng ra mắt lần đầu tiên vào năm 2020. Tuy nhiên, có vẻ như Galaxy Z Flip 6 sẽ mang lại một số thay đổi lớn, khi một số thông tin cho rằng chiếc điện thoại có thể sử dụng chipset Exynos. Tuy nhiên thông tin không tiếp tục cho biết liệu phiên bản Exynos sẽ xuất hiện ở những khu vực nào.
I wouldn't be surprised even if the Exynos is included in this year's Flip 6.
Tất nhiên, đây chỉ là những dự đoán dựa vào sự thành công của Exynos 2400 trên dòng Galaxy S24 và điều này có nghĩa là vẫn có khả năng Galaxy Z Flip 6 sẽ được trang bị Snapdragon 8 Gen 3 và đó sẽ là phiên bản duy nhất được ra mắt, không phải Exynos 2400.
Chỉ còn chưa đầy bốn tháng nữa là đến tháng bảy, điều đó có nghĩa là trong những tháng tới, chúng ta sẽ được nghe nhiều về Galaxy Z Flip 6. Cuối cùng, sự thật sẽ được sáng tỏ liệu Samsung sẽ trang bị Exynos 2400 hay Snapdragon 8 Gen 3, tuy nhiên dù là con chip nào thì sự khác biệt vẫn sẽ rất ít vì Exynos 2400 đã chứng mình hiệu năng mạnh mẽ của mình.
ASUS Republic of Gamers (ROG) vừa chính thức ra mắt bộ đôi laptop gaming ROG Zephyrus G14 và ROG Zephyrus G16 hoàn toàn mới, dòng sản phẩm mỏng nhẹ mạnh nhất của ROG. Với khung nhôm CNC nguyên khối, đường chéo Slash Lightning cá tính, màu trắng Platinum White hoàn toàn mới và vi xử lý AI mới nhất đến từ Intel, AMD và NVIDIA, các game thủ và người sáng tạo nội dung sẽ được trải nghiệm những đỉnh cao mới của thiết bị chơi game mỏng nhẹ.
Cả ROG Zephyrus G14 và ROG Zephyrus G16 đều được trang bị màn hình OLED đạt chuẩn ROG Nebula Display với độ chính xác màu cực cao 100% DCI-P3, tích hợp G-SYNC mang lại trải nghiệm chơi game đáng kinh ngạc. Sở hữu hệ thống tản nhiệt tốt nhất với ROG Intelligent Cooling bao gồm 3 quạt tản nhiệt và keo tản nhiệt kim loại lỏng giúp bộ đôi laptop gaming ROG Zephyrus G14 và ROG Zephyrus G16 luôn mát mẻ mọi lúc mọi nơi.
ROG Zephyrus G14 và ROG Zephyrus G16 – Laptop gaming ROG Nebula OLED mạnh nhất
Thiết kế hoàn toàn mới
ROG Zephyrus G14 và Zephyrus G16 2024 có kích thước và trọng lượng nhẹ nhất trong tất cả laptop gaming hiện nay. Cụ thể ROG Zephyrus G14 sẽ dày 1.59 cm và nặng chỉ 1.5 kg, trong khi ROG Zephyrus G16 chỉ dày 1.49 cm và nặng chỉ 1.85 kg. Cả chiếc laptop gaming này đều có khung nhôm nguyên khối được gia công CNC chính xác tới từng chi tiết, giúp cân bằng về cả trọng lượng, độ bền bỉ và tính thẩm mỹ. Dù mỏng nhẹ như vậy, nhưng hệ thống 6 loa của ROG Zephyrus G14 và ROG Zephyrus G16 lại lớn hơn 25% thế hệ cũ, cho âm lượng cao hơn tới 47%, mang đến trải nghiệm đắm chìm chưa từng thấy. Có thể nói, ROG đã tái định nghĩa khái niệm Ultrabook Gaming với bộ đôi laptop chơi game ROG Zephyrus G14 và ROG Zephyrus G16.
Đường chéo Slash Lighting hoàn toàn mới trên laptop gaming ROG Zephyrus G14 và ROG Zephyrus G16 với 7 hiệu ứng động ấn tượng
Đẩy hiệu năng lên tối đa với AI
ROG Zephyrus G14 sở hữu cấu hình mạnh nhất với vi xử lý AMD Ryzen™ 8945HS hỗ trợ AMD Ryzen AI đến 39 TOPS, có khả năng tăng hiệu suất của các hiệu ứng Windows Studio như tự động căn chỉnh góc, nhận diện mắt và xóa phông nền khi video call. Laptop gaming ROG Zephyrus G14 cũng được tích hợp GPU NVIDIA GeForce RTX™ 4050 với hàng loạt công nghệ tân tiến như DLSS 3.5, Frame Generation và Ray Reconstruction cho trải nghiệm chơi game mượt mà nhất trong thân máy mỏng nhẹ.
Game thủ có thể trải nghiệm mượt mà mọi tựa game AAA ở mức thiết lập đồ họa cao nhất trên laptop gaming ROG Zephyrus G14
Trong khi đó, laptop gaming ROG Zephyrus G16 với vi xử lý Intel Core Ultra 9 185H tích hợp NPU, tổng hiệu năng tính toán AI lên đến 34 TOPS, đi kèm GPU lên đến NVIDIA GeForce RTX 4070 mang lại hiệu năng chơi game và đồ họa mạnh nhất hiện nay, đồng thời hỗ trợ tốt các ứng dụng AI như Omniverse và Stable Diffusion, giảm tối đa thời gian chờ và cho phép người dùng có thể thỏa thích sáng tạo mà không cần phải sử dụng đến Cloud AI. Các tác vụ chỉnh sửa, xuất video và thiết kế 3D cũng tiết kiệm thời gian gấp bội nhờ khả năng tăng tốc AI, đồng thời tiêu thụ ít năng lượng hơn giúp kéo dài thời gian sử dụng.
Hiệu năng xử lý AI ấn tượng trên CPU Intel Core Ultra 9 185H
Hiệu năng cực khủng của laptop gaming ROG Zephyrus G16 trên bộ công cụ Adobe được chấm bằng PudgetBench
Mức FPS của laptop gaming ROG Zephyrus G16 vẫn đạt trên 60 FPS – cực kỳ lý tưởng khi xử lý đổ bóng với tựa game Control ở mức thiết lập đồ họa cao nhất
Laptop gaming ROG đầu tiên sử dụng màn hình OLED đạt chuẩn ROG Nebula Display
ROG Zephyrus G14 và ROG Zephyrus G16 cũng là bộ đôi laptop gaming đầu tiên của ROG sử dụng màn hình OLED đạt chuẩn ROG Nebula Display, với độ phân giải lần lượt là 3K / 120Hz trên ROG Zephyrus G14 và 2.5K / 240Hz trên ROG Zephyrus G16, cho trải nghiệm hình ảnh nhanh, sáng và rực rỡ nhất. ROG cũng tự hào là đối tác chiến lược với thỏa thuận hợp tác chặt chẽ cùng Samsung và NVIDIA để tạo nên màn hình đẹp chuẩn ROG Nebula OLED hỗ trợ G-SYNC tốt nhất hiện nay, đem đến những phút giây đắm chìm nhất cho các game thủ và người sáng tạo nội dung.
Màn hình đẹp rực rỡ và chuẩn màu với ROG Nebula OLED trên bộ đôi laptop gaming ROG Zephyrus
Màn hình đẹp chuẩn ROG Nebula OLED trên laptop gaming ROG Zephyrus G14 và ROG Zephyrus G16 sẽ cùng có tỷ lệ 16:10 rộng rãi, đạt chuẩn VESA DisplayHDR™ True Black 500 và độ tương phản tuyệt đối 1.000.000:1, mang lại trải nghiệm màu đen cực sâu và sắc nét trong mọi hình ảnh và video. Đồng thời, với độ phủ màu 100% DCI-P3, độ chính xác màu Delta E <1 và thời gian phản hồi GTG 0,2ms – chỉ thường thấy trên các thiết bị chuyên dụng, bộ đôi laptop gaming ROG Zephyrus mang đến khả năng hiển thị tối ưu cho các nhà thiết kế, loại bỏ hiện tượng bóng ma gần như tuyệt đối và cung cấp hình ảnh rõ nét nhất.
Khung kim loại nguyên khối CNC trên thân máy siêu mỏng nhẹ của bộ đôi laptop gaming ROG Zephyrus G14 và ROG Zephyrus G16
Hệ thống tản nhiệt thông minh
Dù có kích thước siêu mỏng nhẹ nhưng bộ đôi laptop gaming ROG Zephyrus G14 và ROG Zephyrus G16 vẫn có nhiệt độ cực mát mọi lúc mọi nơi nhờ công nghệ tản nhiệt thông minh ROG Intelligent Cooling, bao gồm 3 quạt tản nhiệt, hệ thống quạt Arc Flow™ thế hệ 2, keo tản nhiệt kim loại lỏng cho hiệu quả tản nhiệt tốt nhất trên các dòng ultrabook gaming 14 inch và 16 inch.
LỊCH HÀNG VỀ VÀ GIÁ BÁN
ROG Zephyrus G14 và ROG Zephyrus G16 hiện đã chính thức ra mắt tại thị trường Việt Nam vào ngày 20/03/2024 tại các đại lý chính hãng của ASUS trên toàn quốc. Thông tin cụ thể như sau:
ROG Zephyrus G14, giá bán lẻ đề xuất 54,990,000 VND, tặng 1 mũ bảo hiểm ROG x AMD trị giá 1,000,000 VND.
ROG Zephyrus G16, giá bản lẻ đề xuất từ 67,990,000 VND, tặng kèm bộ quà độc quyền trị giá 1,500,000 VND, bao gồm 01 Khăn tắm ROG và 01 Ly giữ nhiệt ROG.
CẤU HÌNH CHI TIẾT
ROG Zephyrus G14 (2024)
Vi xử lý
AMD Ryzen9 8945HS
(8 nhân 16 luồng, hỗ trợ AMD Ryzen AI và hiệu ứng Windows Studio)
Card đồ hoạ
NVIDIA GeForce RTX 4050
TGP tối đa 90W (với Dynamic Boost)
Hệ điều hành
Windows 11 Home
Màn hình
14″ ROG Nebula Display OLED 3K (2880 x 1800), 120 Hz / 0.2 ms, 100% DCI-P3, với G-SYNC
VESA DisplayHDR True Black 500
Pantone Validated, Delta E < 1
Dolby Vision
RAM
32GB LPDDR5X (on-board)
Ổ cứng
512GB M.2 2280 PCIe 4.0 SSD
Bàn phím
RGB 1 vùng
Âm thanh
Hệ thống Stereo 6 loa
Amplifier thông minh
Dolby Atmos
Âm thanh Hi-Res
Công nghệ Chống ồn AI Hai chiều
WiFi / Bluetooth
WiFi 6E (802.11ax)
Bluetooth v5.3
Cổng I/O
1 x USB4 (hỗ trợ DisplayPort / Power Delivery)
1 x USB4 (hỗ trợ DisplayPort)
2 x Type-A USB 3.2 Gen2
1 x HDMI 2.1
1 x Micro SD Card Reader (UHS II)
1 x Audio jack
Pin
73 Wh
Kích thước
31.15 x 22 x 1.59~1.63 cm
Trọng lượng
1.50 kg
ROG Zephyrus G16 (2024)
Vi xử lý
Intel Core Ultra 9 Processor 185H
2.3 GHz (24 MB bộ nhớ đệm, lên đến 5.1 GHz, 16 nhân, 22 luồng); Intel AI Boost NPU
Levi nói gì khi được hỏi về những tiêu cực xung quanh drama VCS Mùa Xuân 2024?
Levi – đội trưởng của GAM Esports đã có những chia sẻ xung quanh drama VCS Mùa Xuân 2024.
Việc giải đấu VCS Mùa Xuân 2024 chính thức bị hoãn trở thành chủ đề được quan tâm nhiều nhất trong cộng đồng Esports những ngày vừa qua. Theo đó, VCS sẽ bị tạm hoãn để điều tra tiêu cực các đội tuyển tham gia giải đấu. Đồng thời, kết quả thi đấu ngày 14/3 sẽ bị hủy bỏ, các trận đấu còn lại của vòng bảng cũng sẽ dừng đến khi có thông báo mới nhất từ BTC. Các thông báo này từ BTC khiến drama VCS Mùa Xuân 2024 gần như được đẩy lên đỉnh điểm.
Xung quanh drama VCS Mùa Xuân 2024, nhiều thông tin chưa được kiểm chứng xuất hiện, khiến cộng đồng bàn tán xôn xao. Theo đó, tin đồn nhiều cái tên tuyển thủ, đội tuyển lớn tại VCS đang được điều tra và có khả năng dính vào tiêu cực. Những tin đồn này gây ảnh hưởng không nhỏ đến các tuyển thủ và đội tuyển. Trong đó, Levi – đội tuyển GAM Esports cũng là một cái tên được nhắc đến.
Đội trưởng GAM Esports đã có những chia sẻ khi bị hỏi về việc tham gia vào tiêu cực VCS.
Trước những tin đồn thất thiệt, đội trưởng GAM Esports đã có những chia sẻ trên livestream tối 19/3. Theo đó, Levi cho biết anh đã thi đấu VCS từ rất là lâu và dành nhiều tình cảm cho giải đấu cũng như mong muốn giải đấu phát triển. Tuyển thủ này cũng khẳng định bản thân không có lý do hay động cơ để tham gia vào các hoạt động tiêu cực.
Levi là tuyển thủ đã gắn bó với cộng đồng LMHT từ rất sớm.
“Các bạn nghĩ kiểu gì, các bạn tìm kiểu gì cũng không có một động cơ gì để tôi làm thế cả. Từ tiền bạc, vị trí hay tất cả những gì các bạn có thể nghĩ ra. Món đồ đắt nhất tôi mua cho bản thân là cái iPhone tôi đang dùng, không có dùng món đồ hiệu nào cả. Tiền kiếm được đưa bố mẹ hết. Không bao giờ thấy ăn chơi, không bao giờ thấy xài tiền. Thế mà anh em vẫn đi spam cái vấn đề này”, Levi chia sẻ khi bị bóng gió liên quan đến tiêu cực.
Hiện tại, Riot vẫn đang trong quá trình điều tra. BTC giải đấu chưa có bất kỳ thông tin nào liên quan đến kết quả cuối cùng.
Mối quan hệ hợp tác mang tính bước ngoặt giữa MediaTek và Nvidia hứa hẹn sẽ mở ra kỷ nguyên ô tô được tích hợp trí tuệ AI mới nhất. Đây là điều cần thiết trong một thế giới ô tô đang trên đà tiến tới một cuộc cách mạng hướng tới một tương lai nơi ô tô không chỉ là phương tiện di chuyển mà còn là một phần mở rộng cho không gian số của chúng ta.
Dòng sản phẩm Dimensity Auto Cockpit của MediaTek tích hợp hệ điều hành Drive của Nvidia để tạo ra trải nghiệm lái xe thông minh chưa từng có.
Những con chip này cho phép các mô hình ngôn ngữ phức tạp cư trú ngay bên trong chiếc xe của bạn. Hãy tưởng tượng một chiếc ô tô hiểu được các yêu cầu ngôn ngữ tự nhiên của bạn và đưa ra các đề xuất được cá nhân hóa hoặc thậm chí giúp bạn soạn thảo email khi bạn đang bị kẹt xe sẽ tuyệt vời như thế nào.
Trong tương lai không tưởng này, ô tô của bạn đóng vai trò như một trợ lý đa năng, sẵn sàng đoán trước nhu cầu của bạn và cung cấp hỗ trợ cả trong và ngoài đường. Bạn đang chuẩn bị cho một chuyến đi cùng gia đình và cần gợi ý về những điểm dừng phù hợp với trẻ em? Ô tô của bạn có thể khai thác các bài đánh giá trực tuyến, tính đến vị trí hiện tại của bạn và thậm chí cả những sở thích của con bạn được lưu từ các chuyến đi trước đây.
Bạn đang gặp khó khăn để tập trung vào cuộc gọi hội nghị trong khi đang điều hướng trong giờ cao điểm? Ô tô của bạn có thể chủ động theo dõi tình trạng đường, điều chỉnh tuyến đường của bạn để giao thông thuận lợi hơn và thậm chí cung cấp bản tóm tắt cuộc gọi dựa trên văn bản.
Sự an toàn được tăng cường đáng kể nhờ sự hỗ trợ của AI. Camera tiên tiến kết hợp với thuật toán AI có thể phân tích mô hình giao thông và dự đoán các mối nguy hiểm tiềm ẩn. Hệ thống giám sát tình trạng mệt mỏi của người lái xe sẽ trở nên tinh vi hơn, có khả năng phát hiện những thay đổi trong chuyển động của mắt và tư thế để đề xuất nghỉ ngơi kịp thời.
Điều quan trọng là chiến lược của MediaTek nhắm tới cuộc cách mạng AI trên toàn bộ lĩnh vực ô tô. Dòng chip Dimensity Auto Cockpit cung cấp nhiều loại chip được thiết kế riêng cho từng loại xe, từ xe điện sang trọng cao cấp cho đến những chiếc xe phổ thông hơn.
Trong khi các bộ nhớ HBM như HBM3E đang thống trị bối cảnh trung tâm dữ liệu AI thì GDDR7 sẽ cung cấp năng lượng cho phần lớn phân khúc khách hàng bao gồm GPU gaming và Samsung đã trình diễn bộ nhớ thế hệ tiếp theo của mình tại GTC.
Samsung sẽ trở thành một trong những nhà cung cấp chính cho tiêu chuẩn bộ nhớ GDDR7, công nghệ này sẽ trở thành tiêu chuẩn chính cho GPU chơi game thế hệ tiếp theo. Samsung đã công bố phát triển GDDR7 vào năm 2023 và sẽ sớm ra mắt các phiên bản thậm chí còn nhanh hơn mặc dù phiên bản thường của tiêu chuẩn mới này đã có tốc độ 32 Gbps.
Các mô-đun bộ nhớ GDDR7 của Samsung sẽ có mật độ 16 Gb với mỗi mô-đun cung cấp dung lượng 2 GB.
Bộ nhớ GDDR7 có tốc độ 32 Gbps (PAM3) và có thể được tối ưu hóa xuống 28 Gbps để tối ưu mỗi công suất trên giá thành trong giai đoạn sản xuất. Samsung cũng tuyên bố rằng bộ nhớ GDDR7 sẽ tiết kiệm điện năng tốt hơn 20% khi hoạt động ở điện áp thấp chỉ 1,1V (thấp hơn tiêu chuẩn 1,2V). Các tính năng khác bao gồm giảm nhiệt lượng tỏa ra khi vận hành tốc độ cao nhờ vật liệu mới hơn và thiết kế mạch được tối ưu hóa giúp giảm 70% khả năng cản nhiệt so với GDDR6.
NVIDIA đã công bố siêu máy tính AI thế hệ tiếp theo mang tên NVIDIA DGX SuperPOD™ được hỗ trợ bởi NVIDIA GB200 Grace Blackwell Superchips để xử lý các mô hình nghìn tỷ thông số với thời gian hoạt động liên tục cho khối lượng công việc suy luận và đào tạo AI tạo sinh siêu quy mô.
Nổi bật với kiến trúc quy mô giá đỡ mới, hiệu quả cao, làm mát bằng chất lỏng, DGX SuperPOD mới được xây dựng với hệ thống NVIDIA DGX™ GB200 và cung cấp 11,5 exaflop siêu máy tính AI ở độ chính xác FP4 và bộ nhớ nhanh 240 terabyte — mở rộng lên nhiều hơn với các giá đỡ bổ sung .
Mỗi hệ thống DGX GB200 có 36 Siêu chip NVIDIA GB200 — bao gồm 36 CPU NVIDIA Grace và 72 GPU NVIDIA Blackwell — được kết nối thành một siêu máy tính thông qua NVIDIA NVLink® thế hệ thứ năm. Siêu chip GB200 mang lại hiệu suất tăng gấp 30 lần so với GPU NVIDIA H100 Tensor Core cho khối lượng công việc suy luận mô hình ngôn ngữ lớn (LLM).
Jensen Huang, người sáng lập và Giám đốc điều hành của NVIDIA cho biết: “Siêu máy tính NVIDIA DGX AI là nhà máy của cuộc cách mạng công nghiệp AI”. “DGX SuperPOD mới kết hợp những tiến bộ mới nhất trong điện toán, mạng và phần mềm tăng tốc của NVIDIA để cho phép mọi công ty, ngành và quốc gia tinh chỉnh và tạo ra AI của riêng họ.”
DGX SuperPOD được hỗ trợ bởi Grace Blackwell có tám hệ thống DGX GB200 trở lên và có thể mở rộng tới hàng chục nghìn Siêu chip GB200 được kết nối qua NVIDIA Quantum InfiniBand. Để có không gian bộ nhớ dùng chung khổng lồ nhằm cung cấp năng lượng cho các mô hình AI thế hệ tiếp theo, khách hàng có thể triển khai cấu hình kết nối 576 GPU Blackwell trong 8 hệ thống DGX GB200 được kết nối qua NVLink.
Kiến trúc DGX SuperPOD quy mô giá đỡ mới cho kỷ nguyên AI tạo sinh DGX SuperPOD mới với hệ thống DGX GB200 có kết cấu tính toán thống nhất. Ngoài NVIDIA NVLink thế hệ thứ năm, kết cấu này còn bao gồm DNVIDIA BlueField®-3 DPUvà sẽ hỗ trợ mạng NVIDIA Quantum-X800 InfiniBand, được công bố riêng trong hôm nay. Kiến trúc này cung cấp băng thông lên tới 1.800 gigabyte mỗi giây cho mỗi GPU trong nền tảng.
Ngoài ra, Công nghệ Giao thức Giảm thiểu và Tổng hợp phân cấp có thể mở rộng NVIDIA (NVIDIA Scalable Hierarchical Aggregation and Reduction Protocol SHARP™) thế hệ thứ tư mang đến 14,4 teraflop Điện toán trong mạng, tăng gấp 4 lần trong kiến trúc DGX SuperPOD thế hệ tiếp theo so với thế hệ trước.
Kiến trúc chìa khóa trao tay kết hợp với phần mềm nâng cao để có thời gian hoạt động chưa từng có
DGX SuperPOD mới là siêu máy tính AI hoàn chỉnh, quy mô trung tâm dữ liệu, tích hợp với bộ lưu trữ hiệu suất cao từ các đối tác được NVIDIA chứng nhận để đáp ứng nhu cầu về khối lượng công việc AI tạo sinh. Mỗi thiết bị đều được chế tạo, nối cáp và thử nghiệm tại nhà máy để tăng tốc độ triển khai đáng kể tại các trung tâm dữ liệu của khách hàng.
DGX SuperPOD do Grace Blackwell hỗ trợ có khả năng quản lý dự đoán thông minh để liên tục giám sát hàng nghìn điểm dữ liệu trên phần cứng và phần mềm nhằm dự đoán và chặn các nguồn gây ra thời gian ngừng hoạt động và hoạt động kém hiệu quả — tiết kiệm thời gian, năng lượng và chi phí điện toán.
Phần mềm có thể xác định các khu vực cần quan tâm và lập kế hoạch bảo trì, điều chỉnh linh hoạt tài nguyên điện toán cũng như tự động lưu và tiếp tục công việc để ngăn chặn thời gian ngừng hoạt động, ngay cả khi không có quản trị viên hệ thống có mặt.
Nếu phần mềm phát hiện cần có linh kiện thay thế, cluster sẽ kích hoạt dung lượng dự phòng để đảm bảo công việc hoàn thành đúng thời hạn. Mọi thay thế phần cứng cần thiết đều có thể được lên lịch để tránh thời gian ngừng hoạt động ngoài dự kiến.
Siêu máy tính AI tiên tiến của NVIDIA DGX B200 Systems dành cho các ngành công nghiệp
NVIDIA cũng tiết lộ hệ thống NVIDIA DGX B200,, một nền tảng siêu máy tính AI thống nhất để đào tạo, tinh chỉnh và suy luận mô hình AI.
DGX B200 là thế hệ thứ sáu của thiết kế DGX gắn trên giá truyền thống, làm mát bằng không khí, được các ngành công nghiệp trên toàn thế giới sử dụng. Hệ thống DGX SuperPOD kiến trúc Blackwell mới bao gồm tám GPU NVIDIA Blackwell và hai bộ xử lý Intel® Xeon® thế hệ thứ 5. Khách hàng cũng có thể xây dựng DGX SuperPOD bằng cách sử dụng hệ thống DGX B200 để tạo ra Trung tâm AI xuất sắc có thể hỗ trợ công việc của các nhóm nhà phát triển lớn đảm nhận nhiều công việc khác nhau.
Các hệ thống DGX B200 bao gồm tính năng chính xác FP4 trong kiến trúc Blackwell mới, cung cấp hiệu suất AI lên tới 144 petaflop, bộ nhớ GPU khổng lồ 1,4TB và băng thông bộ nhớ 64TB/s. Điều này mang lại khả năng suy luận thời gian thực nhanh hơn 15 lần cho các mô hình nghìn tỷ tham số so với thế hệ trước.
Hệ thống DGX B200 bao gồm kết nối mạng tiên tiến với tám NVIDIA ConnectX™-7NICvà hai BlueField-3 DPU.. Chúng cung cấp băng thông lên tới 400 gigabit/giây cho mỗi kết nối – mang lại hiệu suất AI nhanh chóng với các nền tảng mạng NVIDIA Quantum-2 InfiniBand và NVIDIA Spectrum™-X Ethernet
Hỗ trợ phần mềm và chuyên gia để mở rộng quy mô sản xuất AI
Tất cả các nền tảng NVIDIA DGX đều bao gồm phần mềm NVIDIA AI Enterprise để phát triển và triển khai ở cấp doanh nghiệp. Khách hàng của DGX có thể tăng tốc công việc của họ với các mô hình nền tảng, khung, bộ công cụ NVIDIA đã được đào tạo trước và các dịch vụ vi mô NVIDIA NIMmới có trong nền tảng phần mềm.
Hình ảnh thực tế NVIDIA DGX GB200 tại GTC 2024
Các chuyên gia NVIDIA DGX và cácđối tác NVIDIA chọn lọc được chứng nhậnđể hỗ trợ nền tảng DGX hỗ trợ khách hàng trong từng bước triển khai để họ có thể nhanh chóng đưa AI vào sản xuất. Sau khi hệ thống đi vào hoạt động, các chuyên gia của DGX tiếp tục hỗ trợ khách hàng tối ưu hóa quy trình và cơ sở hạ tầng AI của họ.
Tính khả dụng
NVIDIA DGX SuperPOD với hệ thống DGX GB200 và DGX B200 dự kiến sẽ có mặt trên thị trường vào cuối năm nay từ các đối tác toàn cầu của NVIDIA.
Để biết thêm thông tin, hãy xem lại bài phát biểu quan trọng của GTChoặc ghé thăm gian hàng NVIDIA tại GTC.
NVIDIA đang tiên phong trong việc chống lại những hậu quả của biến đổi khí hậu thông qua việc phát triển nền tảng đám mây Earth-2, dựa trên cặp song sinh kỹ thuật số cho khí hậu.
Nền tảng này sử dụng công nghệ AI tạo sinh đột phá để tạo ra các mô phỏng khí hậu và thời tiết ở mức độ phân giải và tốc độ chưa từng có, hứa hẹn cung cấp thông tin chính xác và kịp thời hơn về thời tiết cực đoan và các sự kiện khí hậu.
Để đẩy nhanh nỗ lực chống lại thiệt hại kinh tế 140 tỷ USD do thời tiết khắc nghiệt do biến đổi khí hậu gây ra, NVIDIA công bố dự định xây dựng một siêu máy tính AI mạnh mẽ nhất thế giới dành riêng cho việc dự báo biến đổi khí hậu, gọi là Earth-2 hoặc E-2, thông qua nền tảng Omniverse để tạo ra một bản sao kỹ thuật số của Trái Đất. Siêu máy tính này sẽ tập trung vào việc mô phỏng khí hậu với độ phân giải siêu cao, cung cấp dữ liệu và kiến thức cần thiết để đối phó với biến đổi khí hậu.ó.
Là một phần của các dịch vụ vi mô NVIDIA CUDA-X™, được công bố riêng trong hôm nay, các API đám mây mới của Earth-2 trên NVIDIA DGX Cloud™ cho phép người dùng tạo các mô phỏng được hỗ trợ bởi AI để tăng tốc độ phân phối các mô phỏng tương tác, độ phân giải cao từ bầu khí quyển toàn cầu và mây che phủ trước các cơn bão và nhiễu loạn.
Mô hình AI mang tên CorrDiff, một phần của nền tảng, sử dụng mô hình khuếch tán tiên tiến để sinh ra hình ảnh có độ phân giải cao hơn gấp 12,5 lần so với các mô hình số hiện tại, đồng thời nhanh hơn 1.000 lần và tiết kiệm năng lượng hơn 3.000 lần. Mô hình này có khả năng sửa chữa những điểm không chính xác trong các dự báo có độ phân giải thấp và tổng hợp các số liệu quan trọng cho việc ra quyết định, mở ra hướng tiếp cận mới trong việc dự báo và hiểu biết về thời tiết địa phương và toàn cầu.
Nền tảng Earth-2 không chỉ giới hạn ở việc cung cấp dữ liệu khí hậu chính xác mà còn mở ra cơ hội cho các nhà khoa học khí hậu và chính sách sử dụng dữ liệu để đưa ra quyết định thông minh, từ việc thích ứng với biến đổi khí hậu đến việc làm cho cơ sở hạ tầng trở nên bền vững hơn. Điều này được thực hiện qua việc sử dụng NVIDIA DGX Cloud và các siêu máy tính NVIDIA khác như GH200, HGX™ H100 và OVX™, cung cấp khả năng tăng tốc toàn diện cho các giải pháp về khí hậu và thời tiết.
NVIDIA DRIVE Thor đang cách mạng hóa ngành công nghiệp ô tô bằng cách tăng cường sức mạnh cho thế hệ tiếp theo của vận tải, từ ô tô và xe tải đến taxi tự lái và phương tiện giao hàng tự động.
Tại GTC 2024, NVIDIA đã thông báo về việc các thương hiệu hàng đầu như BYD, Hyper, và XPENG đã áp dụng nền tảng DRIVE Thor, đánh dấu bước tiến mới trong việc sử dụng AI tạo sinh trong ngành công nghiệp ô tô.
DRIVE Thor, nền tảng điện toán trên xe mới của NVIDIA, được thiết kế để hỗ trợ AI tạo sinh, chính là sự kế thừa của DRIVE Orin. Bộ xử lý AV thế hệ tiếp theo này sẽ tích hợp kiến trúc NVIDIA Blackwell mới, cung cấp 1.000 teraflops hiệu suất và mang lại khả năng xử lý dữ liệu và AI phức tạp ở mức độ chưa từng có.
Nền tảng này không chỉ dành cho các phương tiện chở khách mà còn mở rộng sang các phân khúc khác như vận tải đường dài, phương tiện giao hàng, và taxi tự động, nơi mà hiệu suất tính toán cao và AI là cần thiết để đảm bảo hoạt động lái xe an toàn và bảo mật.
Ngoài ra, NVIDIA cũng giới thiệu DRIVE Hyperion 9, một nền tảng mới cho các đội xe tự động được định nghĩa bởi phần mềm, dự kiến sẽ được triển khai vào năm 2027. Nền tảng này bao gồm một cấu trúc máy tính, bộ cảm biến, và phần mềm, được thiết kế để mở và mô-đun, cho phép khách hàng lựa chọn những gì họ cần. Hyperion 9 sẽ kích hoạt khả năng lái xe đô thị cấp 3 và lái xe cao tốc cấp 4.
DRIVE Thor và Hyperion 9 đều nhấn mạnh vào tính an toàn và bảo mật, sử dụng cấu trúc tính toán đa miền để phân chia nhiệm vụ cho lái xe tự động và giải trí trong xe, giúp các quy trình quan trọng về thời gian chạy mà không bị gián đoạn. Với khả năng kết nối tất cả các hiển thị, cảm biến và hơn thế nữa vào một SoC duy nhất, DRIVE Thor đơn giản hóa những gì đã là một chuỗi cung ứng vô cùng phức tạp cho các nhà sản xuất ô tô.
Thông qua việc tăng cường sức mạnh tính toán và đổi mới trong AI, NVIDIA DRIVE Thor và Hyperion 9 đang thiết lập tiêu chuẩn mới cho ngành công nghiệp ô tô, mở ra khả năng cho các phương tiện thông minh, tự động hóa cao và an toàn hơn.
Các mô hình ngôn ngữ mở mới từ Google được tăng tốc bởi TensorRT-LLM trên các nền tảng AI của NVIDIA — bao gồm cả máy tính AI RTX địa phương.
NVIDIA, phối hợp với Google, hôm nay đã triển khai các bản tối ưu hóa trên tất cả các nền tảng AI của NVIDIA cho Gemma — mô hình ngôn ngữ mở mới tiên tiến của Google với kích cỡ nhẹ 2 tỷ và 7 tỷ tham số, có thể chạy mọi nơi, giảm chi phí và tăng tốc độ công việc sáng tạo cho các trường hợp sử dụng cụ thể trong lĩnh vực.
Các đội ngũ từ hai công ty đã làm việc chặt chẽ với nhau để tăng tốc độ hiệu suất của Gemma — được xây dựng từ cùng một nghiên cứu và công nghệ đã tạo ra các mô hình Gemini — với NVIDIA TensorRT-LLM, một thư viện mã nguồn mở để tối ưu hóa suy luận mô hình ngôn ngữ lớn, khi chạy trên GPU NVIDIA ở trung tâm dữ liệu, trong đám mây, và tại chỗ trên các trạm làm việc với GPU NVIDIA RTX hoặc máy tính cá nhân với GPU GeForce RTX.
Điều này cho phép các nhà phát triển hướng đến cơ sở đã cài đặt hơn 100 triệu GPU NVIDIA RTX có sẵn trên máy tính AI hiệu suất cao toàn cầu.
Các nhà phát triển cũng có thể chạy Gemma trên GPU NVIDIA trong đám mây, bao gồm trên các thực thể A3 của Google Cloud dựa trên GPU H100 Tensor Core và sớm, GPU H200 Tensor Core của NVIDIA — có 141GB bộ nhớ HBM3e với tốc độ 4.8 terabytes mỗi giây — mà Google sẽ triển khai trong năm nay.
Các nhà phát triển doanh nghiệp có thể tận dụng thêm hệ sinh thái phong phú của công cụ từ NVIDIA — bao gồm NVIDIA AI Enterprise với khung NeMo và TensorRT-LLM — để tinh chỉnh Gemma và triển khai mô hình được tối ưu hóa trong các ứng dụng sản xuất của họ.
Tìm hiểu thêm về cách TensorRT-LLM tăng tốc suy luận cho Gemma, cùng với thông tin bổ sung cho các nhà phát triển. Điều này bao gồm một số checkpoint mô hình của Gemma và phiên bản mô hình được lượng tử hóa FP8, tất cả đều được tối ưu hóa với TensorRT-LLM.
Trải nghiệm trực tiếp Gemma 2B và Gemma 7B từ trình duyệt của bạn trên NVIDIA AI Playground.
Gemma Sẽ Sớm Có Mặt Trên ChatRTX
Thêm hỗ trợ cho Gemma sớm là Chat with RTX (nay là ChatRTX), một bản demo công nghệ của NVIDIA sử dụng tạo sinh kết hợp tìm kiếm và phần mềm TensorRT-LLM để cung cấp khả năng AI tạo sinh cho người dùng trên máy tính Windows được trang bị RTX tại địa phương.
Chat với RTX cho phép người dùng cá nhân hóa một chatbot với dữ liệu của riêng họ bằng cách kết nối dễ dàng các tệp cục bộ trên máy tính RTX với một mô hình ngôn ngữ lớn.
Vì mô hình chạy cục bộ, nó cung cấp kết quả nhanh chóng, và dữ liệu người dùng ở lại trên thiết bị. Thay vì phụ thuộc vào các dịch vụ LLM dựa trên đám mây, Chat với RTX cho phép người dùng xử lý dữ liệu nhạy cảm trên máy tính cá nhân mà không cần chia sẻ với bên thứ ba hoặc có kết nối internet.
Tại hội nghị GTC 2024, NVIDIA tiết lộ rằng TSMC và Synopsys sẽ tích hợp công nghệ quang khắc tính toán (NVIDIA cuLitho) mới của NVIDIA vào quy trình sản xuất của họ. Mục tiêu là tăng tốc độ phát triển và phá vỡ các hạn chế vật lý hiện tại để sản xuất loạt chip bán dẫn mới và tiên tiến hơn.
Với sự hợp tác của TSMC và Synopsys, hai công ty hàng đầu trong lĩnh vực thiết kế giải pháp từ silicon đến hệ thống, NVIDIA cuLitho sẽ được áp dụng vào phần mềm, quy trình sản xuất, và hệ thống của họ. Điều này giúp tăng cường tốc độ sản xuất chip và hỗ trợ cho việc phát triển GPU NVIDIA Blackwell mới nhất.
cuLitho của NVIDIA, một công nghệ được ứng dụng rộng rãi bởi các nhà sản xuất chất bán dẫn lớn, giải quyết một trong những khối lượng công việc tính toán nặng nề nhất trong sản xuất chất bán dẫn. Trước đây, mỗi lớp mặt nạ chuẩn cho chip cần tới 30 triệu giờ CPU, yêu cầu sự hiện diện của các trung tâm dữ liệu lớn. Giờ đây, với sự tăng tốc của cuLitho, 350 hệ thống NVIDIA H100 có thể thay thế cho 40,000 hệ thống CPU, cải thiện đáng kể tốc độ sản xuất, giảm chi phí, diện tích sử dụng, và tiêu thụ năng lượng.
Từ khi ra mắt, cuLitho đã giúp TSMC khai thác những cơ hội mới trong phát triển công nghệ mẫu. Khi áp dụng cuLitho, TSMC và đối tác đã ghi nhận tốc độ xử lý tăng 45 lần cho các luồng cong và 60 lần đối với các luồng kiểu Manhattan truyền thống, đánh dấu sự khác biệt lớn giữa hai phong cách mặt nạ – cong và giới hạn theo hướng ngang hoặc dọc.
Sassine Ghazi, Chủ tịch kiêm Giám đốc điều hành của Synopsys, nhấn mạnh tầm quan trọng của việc hợp tác với TSMC và NVIDIA trong việc mở rộng quy mô sản xuất ở mức độ angstrom. Ghazi nhấn mạnh rằng, với sự chuyển đổi sang nút sản xuất tiên tiến, quang khắc tính toán đòi hỏi độ phức tạp và chi phí tính toán cao hơn, và cuLitho đã giúp đối phó với những thách thức này.
NVIDIA cũng đã phát triển thuật toán AI tạo sinh mới, nhằm cải thiện đáng kể hiệu quả của cuLitho. Quy trình AI mới này giúp tăng gấp đôi tốc độ xử lý so với trước, cho phép tạo ra các mặt nạ nghịch đảo gần như hoàn hảo và cải thiện hiệu quả của quá trình sửa lỗi tiệm cận quang học lên gấp đôi. Điều này giảm thiểu chi phí và khắc phục các điểm nghẽn trong chu kỳ phát triển sản xuất, mở ra cơ hội cho việc thiết kế giải pháp mới mẻ cho chip 2nm và các thế hệ tiếp theo.
ASUS thông báo tham gia hội nghị AI toàn cầu NVIDIA GTC, nơi họ sẽ giới thiệu các giải pháp của mình tại gian hàng # 730. Trong triển lãm sẽ là đỉnh cao của sự đổi mới máy chủ GPU ASUS, ESC NM1-E1 và ESC NM2-E1, được hỗ trợ bởi kiến trúc tham chiếu mô-đun NVIDIA MGX, tăng tốc siêu máy tính AI lên một tầm cao mới.
Để giúp đáp ứng nhu cầu ngày càng tăng về AI tạo sinh (generative AI), ASUS sử dụng các công nghệ mới nhất từ NVIDIA, bao gồm GPU B200 Tensor Core, siêu chip GB200 Grace Blackwell và H200 NVL, giúp cung cấp các giải pháp máy chủ AI được tối ưu hóa để thúc đẩy việc áp dụng AI trên nhiều ngành công nghiệp.
Để hỗ trợ tốt hơn cho các doanh nghiệp trong việc thiết lập môi trường AI tạo sinh của riêng họ, ASUS cung cấp một loạt các máy chủ, từ các giải pháp máy chủ GPU cấp thấp đến cao cấp, cộng với một loạt các giải pháp giá đỡ làm mát bằng chất lỏng, để đáp ứng khối lượng công việc đa dạng.
Ngoài ra, bằng cách tận dụng chuyên môn MLPerf của mình, nhóm ASUS đang theo đuổi sự xuất sắc bằng cách tối ưu hóa phần cứng và phần mềm để đào tạo và suy luận mô hình ngôn ngữ lớn (LLM) và tích hợp liền mạch các giải pháp AI tổng thể để đáp ứng bối cảnh đòi hỏi khắt khe của siêu máy tính AI.
Các giải pháp AI phù hợp với máy chủ hỗ trợ ASUS NVIDIA MGX hoàn toàn mới
Các máy chủ 2U hỗ trợ ASUS NVIDIA MGX mới nhất, ESC NM1-E1 và ESC NM2-E1, giới thiệu Siêu chip NVIDIA GH200 Grace Hopper mang lại hiệu suất và hiệu quả cao. CPU NVIDIA Grace bao gồm các lõi CPU Arm Neoverse V9 với phần tệp lệnh (SVE2) và được cung cấp bởi công nghệ NVIDIA NVLink-C2C.
Tích hợp với DPU NVIDIA BlueField-3 và bộ điều hợp mạng ConnectX-7, các máy chủ hỗ trợ ASUS MGX cung cấp thông lượng dữ liệu siêu tốc lên tới 400Gb/s, lý tưởng cho việc phát triển và triển khai AI của doanh nghiệp. Cùng với NVIDIA AI Enterprise, một nền tảng phần mềm gốc đám mây từ đầu đến cuối để xây dựng và triển khai các ứng dụng AI cấp doanh nghiệp, ESC NM1-E1 do MGX cung cấp mang đến sự linh hoạt và khả năng mở rộng vô song cho các trung tâm dữ liệu do AI điều khiển, HPC, phân tích dữ liệu và các ứng dụng NVIDIA Omniverse.
Công nghệ làm mát bằng chất lỏng tiên tiến
Sự gia tăng các ứng dụng AI đã làm tăng nhu cầu về công nghệ làm mát máy chủ tiên tiến. Làm mát trực tiếp đến chip (D2C) của ASUS cung cấp một tùy chọn nhanh chóng, đơn giản để phân biệt chính nó với các đối thủ cạnh tranh. D2C có thể được triển khai nhanh chóng, giảm tỷ lệ hiệu quả sử dụng năng lượng của trung tâm dữ liệu (PUE). Các máy chủ ASUS, ESC N8-E11 và RS720QN-E11-RS24U, hỗ trợ đường ống góp và tấm làm mát, cho phép triển khai các giải pháp làm mát đa dạng.
Ngoài ra, các máy chủ ASUS còn có bộ trao đổi nhiệt cửa sau tuân thủ các thiết kế máy chủ rack tiêu chuẩn, loại bỏ nhu cầu thay thế tất cả các giá đỡ – chỉ cần cửa sau để cho phép làm mát bằng chất lỏng trong giá đỡ. Bằng cách hợp tác chặt chẽ với các nhà cung cấp giải pháp làm mát hàng đầu trong ngành, ASUS cung cấp các giải pháp làm mát toàn diện cấp doanh nghiệp và cam kết giảm thiểu PUE trung tâm dữ liệu, lượng khí thải carbon và tiêu thụ năng lượng để hỗ trợ thiết kế và xây dựng các trung tâm dữ liệu xanh hơn.
Giải pháp phần mềm AI mới
Với chuyên môn hàng đầu thế giới về siêu máy tính AI, ASUS cung cấp thiết kế máy chủ được tối ưu hóa và tích hợp giá đỡ cho các nhu cầu xử lý khối lượng công việc lớn sử dụng nhiều dữ liệu. Tại GTC, ASUS sẽ giới thiệu ESC4000A-E12 để trình diễn nền tảng AI không mã với ngăn xếp phần mềm tích hợp, cho phép các doanh nghiệp tăng tốc phát triển AI trên LLM trước khi đào tạo, tinh chỉnh và suy luận – giảm rủi ro và thời gian đưa ra thị trường mà không cần bắt đầu lại từ đầu.
Ngoài ra, ASUS cung cấp một giải pháp toàn diện để hỗ trợ các mã thông báo LLM khác nhau từ 7B, 33B và thậm chí hơn 180B với phần mềm tùy chỉnh, tạo điều kiện gửi dữ liệu máy chủ liền mạch. Bằng cách tối ưu hóa việc phân bổ tài nguyên GPU để tinh chỉnh đào tạo, ngăn xếp phần mềm đảm bảo rằng các ứng dụng và khối lượng công việc AI có thể chạy mà không lãng phí tài nguyên, giúp tối đa hóa hiệu quả và lợi tức đầu tư (ROI).
Hơn nữa, sức mạnh tổng hợp phần mềm-phần cứng do ASUS cung cấp cho các doanh nghiệp sự linh hoạt để lựa chọn các khả năng AI phù hợp nhất với nhu cầu của họ, cho phép họ đẩy ROI hơn nữa.
Cách tiếp cận phần mềm sáng tạo này tối ưu hóa việc phân bổ tài nguyên GPU chuyên dụng để đào tạo và suy luận AI, tăng hiệu suất hệ thống. Sức mạnh tổng hợp phần mềm-phần cứng tích hợp phục vụ nhu cầu đào tạo AI đa dạng, trao quyền cho các doanh nghiệp thuộc mọi quy mô, bao gồm cả SMB, tận dụng các khả năng AI tiên tiến một cách dễ dàng và hiệu quả.
Để giải quyết các yêu cầu phát triển của các ứng dụng IoT doanh nghiệp, ASUS, nổi tiếng với khả năng tính toán mạnh mẽ, đang hợp tác với các đối tác công nghiệp, chuyên gia phần mềm và các nhà tích hợp tên miền tập trung. Những sự hợp tác này nhằm mục đích cung cấp các ứng dụng máy chủ hỗ trợ dạng chìa khóa trao tay cho các giải pháp hoàn chỉnh, bao gồm cài đặt và thử nghiệm đầy đủ cho các ứng dụng trung tâm dữ liệu, AI và HPC hiện đại.