Home Blog Page 84

[GTC 2025]NVIDIA dùng AI-Q kết nối AI xử lý tác vụ phức tạp

0

Tại hội nghị GTC 2025, NVIDIA công bố AI-Q – một kế hoạch chi tiết (blueprint) mới nhằm kết nối các tác tử trí tuệ nhân tạo (AI agents) để nâng cấp hoạt động doanh nghiệp. AI-Q giúp các tác tử này hợp tác, tự động hóa tác vụ phức tạp, giải quyết vấn đề nhanh hơn và cải thiện hiệu quả trong nhiều ngành như tài chính, thể thao. Đây là bước tiến để doanh nghiệp khai thác dữ liệu nội bộ thông qua khả năng suy luận của AI.

AI-Q cung cấp hướng dẫn tích hợp tính toán tăng tốc của NVIDIA, nền tảng lưu trữ đối tác và các công cụ phần mềm, bao gồm mô hình suy luận Llama Nemotron mới. Kế hoạch này kết hợp trích xuất đa phương thức (multimodal extraction) nhanh và truy xuất dữ liệu (retrieval) qua NeMo Retriever, microservices NIM và các tác tử AI. Doanh nghiệp có thể xây dựng lực lượng lao động số (digital workforce) xử lý công việc phức tạp với độ chính xác cao, phá vỡ rào cản giữa các hệ thống tác tử riêng lẻ.

[GTC 2025]NVIDIA dùng AI-Q kết nối AI xử lý tác vụ phức tạp

Nền tảng AI-Q dựa trên AgentIQ, bộ công cụ mã nguồn mở (open-source) ra mắt hôm nay trên GitHub. AgentIQ hỗ trợ kết nối linh hoạt giữa các tác tử, công cụ và dữ liệu doanh nghiệp, tối ưu hệ thống đa tác tử (multi-agent systems). Bộ công cụ này dễ tích hợp vào hệ thống hiện có, với quy trình tham gia tự chọn hoàn toàn. AgentIQ cũng cung cấp khả năng theo dõi và phân tích hiệu suất (profiling), giúp doanh nghiệp giám sát, phát hiện điểm kém hiệu quả và hiểu cách tạo ra thông tin kinh doanh (business intelligence). Dữ liệu này có thể kết hợp với NIM và thư viện Dynamo để cải thiện hệ thống tác tử.

AI-Q và AgentIQ hỗ trợ đội ngũ CNTT quản lý “nhân viên số” bằng cách tối ưu hiệu suất và kết nối giữa các khung tác tử như Agentforce của Salesforce, Atlassian Rovo trên Confluence, Jira, hay nền tảng ServiceNow. Điều này giảm thời gian phản hồi từ vài ngày xuống vài giờ, phá vỡ rào cản dữ liệu. AgentIQ tương thích với CrewAI, LangGraph, Llama Stack, Microsoft Azure AI Agent Service và Letta, cho phép lập trình viên (developer) làm việc trên môi trường quen thuộc. Azure AI Agent Service dùng AgentIQ với Semantic Kernel để quản lý đa tác tử hiệu quả hơn.

[GTC 2025]NVIDIA dùng AI-Q kết nối AI xử lý tác vụ phức tạp

Nhiều ngành đang áp dụng khả năng nhận diện hình ảnh (visual perception) và tương tác vào tác tử AI. Visa, công ty dịch vụ tài chính, dùng AI-Q để tự động phân tích email lừa đảo (phishing) quy mô lớn trong bảo mật mạng. Tính năng phân tích của AI-Q giúp Visa tối ưu hiệu suất và chi phí, tăng tốc phản ứng với mối đe dọa. Trong khi đó, tích hợp AI-Q vào Metropolis VSS cho phép tạo tác tử đa phương thức, kết hợp nhận diện hình ảnh, giọng nói, dịch thuật và phân tích dữ liệu.

Doanh nghiệp có thể bắt đầu với AgentIQ qua thư viện mã nguồn mở và tham gia hackathon để thực hành xây dựng hệ thống tác tử. NVIDIA cũng chia sẻ cách một kiến trúc sư giải pháp dùng AgentIQ cải thiện tạo mã AI. Hệ thống AI-Q yêu cầu nền tảng dữ liệu mạnh, được các đối tác NVIDIA cung cấp để xử lý liên tục, giúp tác tử truy cập kiến thức nhanh và phản hồi truy vấn phức tạp.

AI-Q nhắm đến việc biến tác tử AI thành lực lượng lao động số, nhưng đòi hỏi hạ tầng tính toán cao cấp và khả năng tích hợp từ doanh nghiệp. Các công cụ như AgentIQ tăng tính minh bạch qua theo dõi hệ thống, nhưng hiệu quả thực tế phụ thuộc vào cách triển khai. NVIDIA khuyến khích tìm hiểu thêm qua thông báo phần mềm và tài liệu GTC.

Việc kết nối tác tử AI mở ra hướng đi mới cho công việc doanh nghiệp, từ tài chính đến sản xuất. Tuy nhiên, doanh nghiệp cần đầu tư đáng kể để tận dụng tối đa AI-Q và AgentIQ trong thực tế.

[GTC 2025] NVIDIA ra mắt DGX Spark và Station cho nhà phát triển AI

0

Tại GTC 2025, NVIDIA giới thiệu dòng siêu máy tính cá nhân (personal supercomputers) DGX mới, gồm DGX Spark và DGX Station, sử dụng nền tảng Grace Blackwell. Hai hệ thống này được thiết kế cho nhà phát triển (developer), nhà nghiên cứu, nhà khoa học dữ liệu và sinh viên, cho phép thử nghiệm, tinh chỉnh và suy luận (inference) mô hình AI lớn ngay trên máy để bàn (desktop).

Người dùng có thể vận hành mô hình cục bộ hoặc triển khai lên NVIDIA DGX Cloud, đám mây tăng tốc (accelerated cloud) hoặc trung tâm dữ liệu mà không cần chỉnh sửa nhiều mã nguồn. Các nhà sản xuất toàn cầu như ASUS, Dell Technologies, HP và Lenovo sẽ phát triển hai dòng máy này.

NVIDIA ra mắt DGX Spark và Station cho nhà phát triển AI

DGX Spark, trước đây là Project DIGITS, được xem là siêu máy tính AI nhỏ nhất thế giới. Máy tích hợp siêu chip (superchip) GB10 Grace Blackwell, tối ưu cho dạng máy để bàn, với GPU Blackwell thế hệ thứ năm, hỗ trợ FP4 và lõi Tensor, đạt tới 1.000 nghìn tỷ phép tính mỗi giây. Hiệu suất này phù hợp để xử lý các mô hình AI suy luận mới như NVIDIA Cosmos Reason và GR00T N1 cho robot. Công nghệ NVLink-C2C kết nối CPU và GPU, mang lại băng thông gấp 5 lần PCIe thế hệ năm, tối ưu cho khối lượng công việc AI nặng về bộ nhớ.

DGX Station mang hiệu suất cấp trung tâm dữ liệu xuống máy để bàn. Đây là hệ thống đầu tiên dùng siêu chip GB300 Grace Blackwell Ultra Desktop, với bộ nhớ mạch lạc (coherent memory) 784GB, tăng tốc huấn luyện và suy luận quy mô lớn. GB300 kết hợp GPU Blackwell Ultra và CPU Grace qua NVLink-C2C, đảm bảo giao tiếp hệ thống hiệu quả. Máy còn trang bị ConnectX-8 SuperNIC, hỗ trợ mạng tốc độ 800Gb/s, cho phép kết nối nhiều DGX Station để xử lý khối lượng công việc lớn hơn và truyền dữ liệu nhanh qua mạng cho tác vụ AI.

IMG 2112 MMOSITE - Thông tin công nghệ

Jensen Huang, CEO NVIDIA, cho biết DGX Spark và Station mở rộng AI từ đám mây sang máy để bàn và ứng dụng biên (edge applications). DGX Spark hướng tới hàng triệu nhà phát triển robot, khoa học dữ liệu, hỗ trợ AI tạo sinh (generative AI) và AI vật lý (physical AI) với hiệu suất cao. Nền tảng AI toàn diện của NVIDIA giúp người dùng DGX Spark chuyển mô hình từ máy để bàn sang DGX Cloud hoặc hạ tầng khác mà không cần thay đổi nhiều, đơn giản hóa quá trình thử nghiệm và tinh chỉnh.

DGX Station, với sự kết hợp CUDA-X AI, đáp ứng nhu cầu phát triển AI của nhóm lớn hơn trên máy để bàn. Người dùng cả hai dòng máy được truy cập microservices NIM qua phần mềm NVIDIA AI Enterprise, cung cấp dịch vụ suy luận tối ưu và hỗ trợ cấp doanh nghiệp. Tuy nhiên, để tận dụng hết khả năng, người dùng cần kỹ năng kỹ thuật và hạ tầng mạng phù hợp, đặc biệt với ConnectX-8 trên DGX Station.

DGX Spark hiện mở đặt trước từ ngày công bố. DGX Station dự kiến ra mắt cuối năm 2025 qua các đối tác như ASUS, BOXX, Dell, HP, Lambda và Supermicro. Grace Blackwell, vốn chỉ dùng trong trung tâm dữ liệu, nay được thu gọn cho máy cá nhân, nhưng chưa có thông tin chi tiết về giá cả hay hiệu suất thực tế so với các hệ thống khác.

DGX Spark phù hợp cho cá nhân hoặc nhóm nhỏ nhờ thiết kế nhỏ gọn và siêu chip GB10 tiết kiệm năng lượng. Ngược lại, DGX Station nhắm đến khối lượng công việc lớn như huấn luyện mô hình AI phức tạp, với bộ nhớ lớn và kết nối mạng tốc độ cao. Cả hai đều yêu cầu người dùng hiểu biết về triển khai mô hình AI để tận dụng tối đa sức mạnh phần cứng.

NVIDIA chưa công bố dữ liệu hiệu suất cụ thể khi so với các dòng máy khác, nhưng nhấn mạnh hai hệ thống này đáp ứng xu hướng AI bản địa (AI-native). NVLink-C2C và ConnectX-8 tăng hiệu quả giao tiếp nội bộ và mạng, nhưng đòi hỏi hạ tầng tương thích để hoạt động tối ưu. Các nhà phát triển cần xem xét khả năng tích hợp với công cụ hiện có trước khi đầu tư. Thông tin chi tiết sẽ được các đối tác sản xuất cập nhật trong thời gian tới.

[GTC 2025] NVIDIA giới thiệu Isaac GR00T N1 – nền tảng robot dạng người đầu tiên trên thế giới

0

Tại hội nghị GTC 2025, NVIDIA giới thiệu loạt công nghệ mới hỗ trợ phát triển robot humanoid, nổi bật là NVIDIA Isaac GR00T N1 – mô hình nền tảng (foundation model) mã nguồn mở đầu tiên cho khả năng suy luận và kỹ năng chung của robot hình dạng con người. Ngoài ra, NVIDIA công bố các khung mô phỏng (simulation frameworks) như Isaac GR00T Blueprint để tạo dữ liệu tổng hợp (synthetic data) và Newton – công cụ mô phỏng vật lý mã nguồn mở hợp tác với Google DeepMind và Disney Research.

Isaac GR00T N1, hiện đã khả dụng, là mô hình có thể tùy chỉnh hoàn toàn, được NVIDIA huấn luyện sẵn và cung cấp cho các nhà phát triển robot toàn cầu. Mô hình này ứng dụng kiến trúc hai hệ thống dựa trên nhận thức con người: “System 1” xử lý nhanh như phản xạ, và “System 2” suy luận chậm để đưa ra quyết định.

Được hỗ trợ bởi mô hình ngôn ngữ hình ảnh (vision language model), GR00T N1 thực hiện các tác vụ như cầm nắm, di chuyển vật thể và phối hợp tay, hoặc xử lý công việc đa bước cần ngữ cảnh dài. Jensen Huang, CEO NVIDIA, cho biết công nghệ này mở ra kỷ nguyên robot đa năng, giải quyết thiếu hụt lao động toàn cầu ước tính hơn 50 triệu người.

[GTC 2025] NVIDIA giới thiệu Isaac GR00T N1 - nền tảng robot dạng người đầu tiên trên thế giới

Mô hình được huấn luyện từ dữ liệu biểu diễn của con người và dữ liệu tổng hợp từ Omniverse. Tại GTC, Huang trình diễn robot của 1X tự dọn dẹp nhà cửa nhờ chính sách huấn luyện dựa trên GR00T N1, hợp tác giữa 1X và NVIDIA. Bernt Børnich, CEO 1X, cho biết GR00T N1 tăng tốc khả năng suy luận và kỹ năng robot với ít dữ liệu hậu huấn luyện (post-training). Các công ty như Agility Robotics, Boston Dynamics, Mentee Robotics và NEURA Robotics cũng được truy cập sớm mô hình này.

NVIDIA hợp tác Google DeepMind và Disney Research phát triển Newton, công cụ mô phỏng vật lý tối ưu cho học máy robot, tăng tốc 70 lần so với MJX của MuJoCo. Disney dùng Newton để nâng cấp robot giải trí như BDX droids, xuất hiện cùng Huang tại GTC. Kyle Laughlin từ Walt Disney Imagineering cho biết đây là bước đầu đưa nhân vật robot sống động hơn vào thực tế. Newton dự kiến ra mắt cuối năm nay, hỗ trợ MuJoCo-Warp và Isaac Lab.

[GTC 2025] NVIDIA giới thiệu Isaac GR00T N1 - nền tảng robot dạng người đầu tiên trên thế giới

Dữ liệu chất lượng cao rất quan trọng cho robot, nhưng thu thập từ con người tốn thời gian. Isaac GR00T Blueprint, dựa trên Omniverse và Cosmos Transfer, tạo dữ liệu tổng hợp quy mô lớn từ ít biểu diễn thực tế. NVIDIA tạo 780.000 quỹ đạo tổng hợp – tương đương 6.500 giờ dữ liệu con người – trong 11 giờ, kết hợp dữ liệu thực để tăng hiệu suất GR00T N1 lên 40% so với chỉ dùng dữ liệu thực. Bộ dữ liệu GR00T N1 được công bố mã nguồn mở trên Hugging Face, nằm trong tập dữ liệu AI vật lý lớn hơn.

GR00T N1 và Blueprint hiện tải được từ Hugging Face và GitHub. NVIDIA cũng ra mắt DGX Spark, siêu máy tính AI cá nhân giúp mở rộng GR00T N1 cho robot và tác vụ mới mà không cần lập trình phức tạp. Các công nghệ này nhắm đến đẩy nhanh phát triển robot humanoid, nhưng đòi hỏi hạ tầng mạnh và khả năng tích hợp từ nhà phát triển.

Tại GTC, Disney Research chia sẻ cách dùng Newton cho robot BDX, trong khi Google DeepMind trình bày MuJoCo-Warp. NVIDIA và Intrinsic cũng công bố khung OpenUSD để tối ưu luồng dữ liệu robot.

[GTC 2025] NVIDIA hợp tác cùng Alphabet Google để phát triển AI vật lý

0

Tại hội nghị GTC 2025, NVIDIA cùng Alphabet và Google công bố các sáng kiến mới nhằm thúc đẩy trí tuệ nhân tạo (AI), mở rộng truy cập công cụ AI và phát triển AI vật lý (physical AI). Hợp tác này tập trung vào cải tiến hạ tầng, tối ưu mô hình mã nguồn mở (open model) và ứng dụng trong robot, khám phá thuốc, năng lượng, với tham vọng thay đổi nhiều ngành công nghiệp như y tế, sản xuất và năng lượng.

Các kỹ sư và nhà nghiên cứu từ Alphabet phối hợp cùng đội kỹ thuật NVIDIA, sử dụng nền tảng Omniverse, Cosmos và Isaac để phát triển robot có khả năng cầm nắm, tối ưu lưới điện và nghiên cứu thuốc. Các nhóm từ Google DeepMind, Isomorphic Labs, Intrinsic và dự án Tapestry của X sẽ trình bày kết quả tại GTC. Google Cloud sẽ sớm áp dụng giải pháp NVIDIA GB300 NVL72 và GPU RTX PRO 6000 Blackwell Server Edition, được công bố cùng ngày, để hỗ trợ nghiên cứu và sản xuất AI cho khách hàng.

GR00T N1 Image MMOSITE - Thông tin công nghệ

NVIDIA trở thành đối tác đầu tiên ngoài Alphabet sử dụng SynthID của Google DeepMind, công nghệ gắn dấu nước số (digital watermark) vào nội dung AI tạo ra như hình ảnh, âm thanh, văn bản, video. SynthID được tích hợp vào mô hình Cosmos của NVIDIA để đảm bảo tính minh bạch, giảm rủi ro thông tin sai lệch mà không ảnh hưởng chất lượng. Hai bên cũng tối ưu dòng mô hình Gemma của Google trên GPU NVIDIA, với Gemma 3 đánh dấu bước tiến trong đổi mới mở. NVIDIA cung cấp Gemma dưới dạng microservice NIM, tận dụng TensorRT-LLM để tăng hiệu suất suy luận (inference).

Trong lĩnh vực robot, Intrinsic hợp tác NVIDIA cải thiện Flowstate, tích hợp mô hình Isaac Manipulator để robot tự thích nghi, giảm thời gian phát triển ứng dụng. NVIDIA và Google DeepMind cùng Disney Research phát triển Newton, công cụ mô phỏng vật lý mã nguồn mở tăng tốc 70 lần cho học máy robot so với MJX. Isomorphic Labs dùng Google Cloud và GPU NVIDIA để thiết kế thuốc bằng AI, trong khi Tapestry tối ưu mô phỏng lưới điện, giải quyết nhu cầu năng lượng từ trung tâm dữ liệu và AI.

Google Cloud là một trong những đơn vị đầu tiên triển khai GPU Blackwell, gồm GB300 NVL72 và HGX B300 NVL16, mang lại hiệu suất AI cao gấp 1,5 lần GB200 NVL72 và tăng doanh thu nhà máy AI gấp 50 lần so với Hopper. RTX PRO 6000 Blackwell hỗ trợ cả AI và tính toán hình ảnh cho y tế, sản xuất, bán lẻ. Google Cloud cũng tối ưu khung JAX và MaxText để chạy hiệu quả trên GPU NVIDIA quy mô lớn, với MaxText hỗ trợ huấn luyện mô hình trên hàng chục nghìn GPU.

GTC 2025 Keynote mmosite 2 MMOSITE - Thông tin công nghệ

Sundar Pichai, CEO Alphabet và Google, cho biết hợp tác này mở rộng từ Android đến AI tiên tiến, tập trung vào robot và AI agentic (agentic AI). Jensen Huang, CEO NVIDIA, nhấn mạnh quan hệ lâu dài với Alphabet, giải quyết thách thức từ khám phá thuốc đến robot. Tại GTC, Intrinsic giới thiệu khung OpenUSD kết nối Flowstate với Omniverse, cho phép hình dung robot thời gian thực. Tapestry và NVIDIA đang đánh giá AI để tối ưu kết nối lưới điện, hướng tới hiện đại hóa hạ tầng năng lượng bền vững.

Hợp tác này tận dụng thế mạnh hạ tầng và công nghệ AI của cả ba bên. Google Cloud đã ra mắt máy ảo A4 và sắp tới là A4X với Blackwell, kết hợp hiệu suất NVIDIA và AI Hypercomputer. Việc tối ưu Gemma và Gemini trên Vertex AI cho thấy nỗ lực kỹ thuật sâu rộng. Tuy nhiên, việc triển khai đòi hỏi đầu tư lớn vào hạ tầng và khả năng tích hợp từ các bên liên quan.

GPU NVIDIA RTX PRO 6000 “Blackwell” nhanh hơn RTX 5090 trong bài kiểm tra Pure Path Tracing

0

Những con số điểm chuẩn đầu tiên về GPU RTX PRO 6000 “Blackwell” vừa được NVIDIA ra mắt đã được tiết lộ, với nhiều nhân hơn và bộ nhớ gấp ba lần RTX 5090, GPU thế hệ mới dễ dàng vượt mặt ông vua gaming.

NVIDIA đã ra mắt card đồ họa prosumer hàng đầu của mình, RTX PRO 6000 “Blackwell”. Card này có cấu hình tốt hơn nhiều trên lý thuyết so với RTX 5090, card đồ họa chơi game GeForce đầu bảng hiện nay Mặc dù cả hai card đều dựa trên cùng một kiến ​​trúc và thậm chí là cùng một GPU GB202 nhưng thông số kỹ thuật của RTX PRO 6000 tốt hơn rất nhiều.

NVIDIA RTX PRO 6000 Blackwell MMOSITE - Thông tin công nghệ

Tóm gọn thông số kỹ thuật, card đồ họa NVIDIA RTX PRO 6000 đi kèm với 24.064 nhân trong 188 SM, so với chỉ 21.760 nhân có trên RTX 5090 (cao hơn 10,5%). GPU GB202 có thể chứa tối đa 192 SM, vì vậy mặc dù RTX PRO 6000 vẫn chưa phải là card đồ họa tốt nhất mà Blackwell cung cấp nhưng đây là card đồ họa có số lượng nhân lớn nhất từng được ra mắt dành cho người tiêu dùng. Nó cũng sử dụng TDP 600W với giao diện đầu nối 12V-2×6 đơn, cao hơn 25W so với 575W trên RTX 5090.

Ngoài ra, NVIDIA RTX PRO 6000 “Blackwell” còn đi kèm với bộ nhớ 96 GB GDDR7, gấp 3 lần RTX 5090 với chỉ 32 GB. Bộ nhớ này được cung cấp cùng một bus 512 bit với cùng tốc độ bộ nhớ 28 Gbps cho tổng băng thông 1792 GB/giây. Card sẽ ra mắt với cùng thiết kế luồng kép và hệ số dạng khe cắm kép, hỗ trợ khả năng MIG (GPU đa phiên bản) với 4 chế độ 24 GB, 2 chế độ 48 GB hoặc 1 chế độ 96 GB.

Giải pháp hàng đầu này hiện sẽ mang đến sự cải tiến tuyệt vời so với GeForce RTX 5090 vốn đã rất ấn tượng. Chúng tôi đã có một số điểm chuẩn mới được thực hiện trong GameTechBench, có tính năng theo dõi đường dẫn đầy đủ (kết xuất CGI) và sẽ là một minh chứng tuyệt vời cho sức mạnh của card mới.

NVIDIA RTX PRO 6000 Blackwell dẫn đầu bảng xếp hạng hiệu suất 4K và dẫn trước RTX 5090 đến 5%. Ở 1440p, RTX PRO 6000 có vẻ chậm hơn RTX 5090 một chút.

Ở chế độ dựng hình Path Tracing ngoại tuyến, NVIDIA RTX PRO 6000 “Blackwell” nhanh hơn RTX 5090 đến 2%.

gpu-nvidia-rtx-pro-6000-blackwell-nhanh-hon-rtx-5090

Với những con số trên chúng ta có thể thấy hiệu năng chênh lệch không quá lớn đối với quái vật mới nhất của NVIDIA mặc dù có cấu hình tốt hơn 19% trên lý thuyết. Điều này có thể là do phần mềm chưa khai thác được hết toàn bộ phần cứng có trong GPU nhưng chắc chắn vẫn là lựa chọn hấp dẫn đối với những người thực sự muốn sở hữu sức mạnh đỉnh cao nhất thế giới PC hiện tại.

Nguồn: wccftech

[GTC 2025] NVIDIA công bố GPU Feynman thế hệ tiếp theo trong lộ trình ra mắt tương lai

0

NVIDIA vừa đặt tên cho GPU thế hệ tiếp theo của mình là Feynman và nó sẽ sử dụng bộ nhớ HBM tân tiến.

Tại GTC 2025, NVIDIA đã công bố lộ trình sản phẩm mới nhất của mình, mở rộng ra ngoài GPU Rubin & Rubin Ultra. Lộ trình mới này đã xác nhận GPU thế hệ tiếp theo sẽ có tên mã là Feynman, theo tên nhà vật lý lý thuyết người Mỹ nổi tiếng, Richard Phillips Feynman, người được biết đến với công trình nghiên cứu về cơ học lượng tử.

nvidia-cong-bo-gpu-feynman-the-he-tiep-theo

Mặc dù công ty vẫn chưa công bố bất kỳ thông tin chi tiết chuyên sâu nào về GPU Feynman nhưng đội xanh khẳng định GPU sẽ sử dụng bộ nhớ HBM thế hệ tiếp theo, đây có thể là HBM4e hoặc HBM5?

2025 03 18 23 53 43 MMOSITE - Thông tin công nghệ

Ngoài ra, GPU Feynman của NVIDIA cũng sẽ được trang bị cùng với các CPU Vera tương tự sẽ được sử dụng bởi các nền tảng Rubin và Rubin Ultra. Các bản nâng cấp khác sẽ có dạng NVSwitch NVL-Next thế hệ thứ 8, Spectrum7 (204T, CPO) & CX10. Những bản nâng cấp này sẽ ra mắt vào khoảng năm 2028 và xét theo mốc thời gian của NVIDIA, chúng ta có thể mong đợi một bản ra mắt vào nửa cuối năm. Ngoài ra, hiện tại vẫn chưa có thông tin gì về Feynman Ultra, người dùng có thể hy vọng sẽ nhận được một GPU xứng tầm với từng ấy thời gian, vào khoảng năm 2030.

[GTC 2025] NVIDIA RTX PRO 6000 “Blackwell” chính thức ra mắt

0

NVIDIA vừa chính thức ra mắt dòng GPU RTX PRO 6000 Blackwell hướng đến phân khúc máy chủ và máy tính cá nhân với sức mạnh khủng.

Hôm nay, NVIDIA giới thiệu card đồ họa chuyên dụng cho Prosumer, Data Center và AI thế hệ tiếp theo, RTX PRO 6000 Blackwell. Giải pháp đồ họa này đi kèm với sức mạnh tính toán thậm chí còn lớn hơn cả RTX 5090. Card sẽ có ba biến thể, bắt đầu với thiết kế chuẩn hóa cùng với Max-Q và thiết kế dành cho máy chủ, tùy thuộc vào nhu cầu của người tiêu dùng.

NVIDIA RTX PRO 6000 “Blackwell” sẽ có 24.064 nhân, nhiều hơn 10,5% so với 21.760 nhân của RTX 5090. Ngoài số lượng nhân, chip này cũng sẽ chứa 752 nhân tensor và 188 nhân RT. Card sẽ cung cấp hiệu suất lên đến 125 TFLOPs FP32 và 4000 AI TOPS. Nhưng nâng cấp lớn nhất so với RTX 5090 sẽ là dung lượng bộ nhớ khủng của nó.

Không giống như NVIDIA GeForce RTX 5090, có bộ nhớ chỉ 32 GB GDDR7 trên giao diện bus 512 bit, RTX PRO 6000 “Blackwell” sẽ có bộ nhớ 96 GB GDDR7 (ECC) trên cùng bus 512 bit. Các card đồ họa sẽ được định cấu hình ở tốc độ 28 Gbps, cung cấp tổng băng thông lên tới 1,8 TB/giây.

nvidia-rtx-pro-6000-blackwell-chinh-thuc-ra-mat

NVIDIA RTX PRO 6000 sẽ có TBP 600W, đây là công suất đầy đủ cho phép bởi một giao diện nguồn 16 chân 12V-2×6 duy nhất. Việc làm mát một card đồ họa khủng như vậy sẽ đòi hỏi rất nhiều công nghệ và nhóm kỹ thuật nhiệt của NVIDIA đã tái sử dụng quạt kép, cùng bộ làm mát khe cắm kép để đáp ứng nhu cầu của card.

NVIDIA RTX PRO 6000 Blackwell GPU Listing MMOSITE - Thông tin công nghệ

Nhưng đây là hệ thống làm mát cho phiên bản tiêu chuẩn. Hai biến thể còn lại sẽ phục vụ các nhu cầu khác nhau. RTX PRO 6000 “Blackwell” Max-Q sẽ có thiết kế kiểu quạt gió và nhắm vào phân khúc máy trạm. Biến thể còn lại được thiết kế cho môi trường máy chủ và sẽ sử dụng giải pháp làm mát thụ động. Biến thể Max-Q sẽ hoạt động ở mức TDP là 300W.

[GTC 2025] NVIDIA ra mắt thư viện Dynamo giúp tăng tốc suy luận AI gấp 30 lần

0

Ngày 18.3.2025, tại hội nghị GTC, NVIDIA đã giới thiệu Dynamo, một thư viện phần mềm suy luận (inference software) mã nguồn mở (open-source) nhằm tăng tốc và mở rộng mô hình suy luận trí tuệ nhân tạo (AI reasoning models) trong các nhà máy AI.

Được thiết kế để vận hành hiệu quả trên hàng nghìn GPU, Dynamo tối ưu hóa chi phí và nâng cao doanh thu từ token cho các nhà cung cấp dịch vụ AI. Đây là phiên bản kế thừa của NVIDIA Triton Inference Server, tập trung vào việc quản lý và đẩy nhanh giao tiếp suy luận trên quy mô lớn.

[GTC 2025] NVIDIA ra mắt thư viện Dynamo giúp tăng tốc suy luận AI gấp 30 lần

Việc xử lý hàng chục nghìn token cho mỗi lệnh (prompt) đang trở thành xu hướng chính trong suy luận AI. Dynamo cải thiện hiệu suất suy luận, giảm chi phí vận hành, giúp các nhà máy AI phục vụ mô hình ngôn ngữ lớn (LLMs) hiệu quả hơn. Phần mềm này sử dụng phương pháp phục vụ phân tách (disaggregated serving), chia giai đoạn xử lý và tạo nội dung của LLM cho các GPU khác nhau.

Điều này cho phép tối ưu riêng từng giai đoạn, tăng cường sử dụng tài nguyên GPU. Jensen Huang, CEO NVIDIA, cho biết Dynamo hỗ trợ triển khai mô hình AI tùy chỉnh trên quy mô lớn, tiết kiệm chi phí cho các nhà máy AI.

Trên nền tảng Hopper hiện tại, Dynamo tăng gấp đôi hiệu suất và doanh thu khi phục vụ mô hình Llama với cùng số GPU. Với DeepSeek-R1 trên cụm GB200 NVL72, tối ưu hóa thông minh của Dynamo tăng số token tạo ra hơn 30 lần mỗi GPU. Để đạt kết quả này, phần mềm tích hợp các tính năng như thêm hoặc bớt GPU linh hoạt theo lưu lượng yêu cầu, định tuyến truy vấn đến GPU phù hợp, giảm tính toán lặp lại, đồng thời chuyển dữ liệu suy luận sang bộ nhớ và thiết bị lưu trữ rẻ hơn khi cần, đảm bảo chi phí thấp.

[GTC 2025] NVIDIA ra mắt thư viện Dynamo giúp tăng tốc suy luận AI gấp 30 lần

Dynamo hỗ trợ PyTorch, SGLang, TensorRT-LLM và vLLM, mở cửa cho doanh nghiệp, startup và nhà nghiên cứu tối ưu phục vụ AI. Nhiều công ty như AWS, Google Cloud, Microsoft Azure, Meta và Perplexity dự kiến áp dụng. Denis Yarats từ Perplexity AI cho biết Dynamo sẽ tăng hiệu quả phục vụ hàng trăm triệu yêu cầu mỗi tháng. Cohere cũng lên kế hoạch dùng Dynamo để hỗ trợ khả năng agentic AI trong dòng Command, cải thiện phối hợp đa GPU và giao tiếp thấp độ trễ.

Together AI dự định tích hợp Dynamo với Together Inference Engine để mở rộng tải suy luận, giải quyết tắc nghẽn lưu lượng. Ce Zhang từ Together AI nhận định sự linh hoạt của Dynamo giúp tối ưu tài nguyên, tăng hiệu suất phục vụ mô hình mã nguồn mở. Phần mềm bao gồm bốn cải tiến chính: GPU Planner điều chỉnh GPU theo nhu cầu, Smart Router định tuyến thông minh, thư viện giao tiếp thấp độ trễ (Low-Latency Communication Library) và Memory Manager quản lý bộ nhớ hiệu quả.

Dynamo tận dụng bộ nhớ đệm KV (KV cache) để định tuyến yêu cầu mới tới GPU có dữ liệu phù hợp, tránh tính toán dư thừa. Với mô hình như NVIDIA Llama Nemotron, phương pháp phân tách tăng tốc độ phản hồi và thông lượng (throughput). Phần mềm sẽ có trong NVIDIA NIM microservices và được hỗ trợ bởi NVIDIA AI Enterprise trong tương lai, đảm bảo bảo mật và ổn định cấp sản xuất.

Các nhà máy AI ngày càng phụ thuộc vào suy luận quy mô lớn, và Dynamo đáp ứng nhu cầu này bằng cách giảm chi phí và tăng hiệu quả. NVIDIA khuyến khích tìm hiểu thêm qua bài phát biểu GTC, blog Dynamo và các phiên thảo luận tại sự kiện đến ngày 21/3. Tuy nhiên, việc triển khai đòi hỏi hạ tầng GPU mạnh và khả năng thích nghi từ nhà cung cấp dịch vụ.

GTC 2025 khai mạc – NVIDIA giới thiệu Blackwell Ultra và định hướng lượng tử

0

Sáng ngày 18.3.2025 (giờ Mỹ), Hội nghị Công nghệ GPU –GTC 2025 tại San Jose, California, bước sang ngày thứ hai với bài trình bày quan trọng của Jensen Huang, CEO NVIDIA.

Diễn tại SAP Center, sự kiện được phát trực tiếp trên trang web NVIDIA và YouTube, thu hút hàng nghìn khán giả trực tiếp lẫn trực tuyến. Đây là dịp để NVIDIA công bố các sản phẩm mới, định hướng tương lai công nghệ, và phản hồi những kỳ vọng lớn từ nhà đầu tư trong bối cảnh cạnh tranh ngày càng gay gắt trong ngành AI và lượng tử.

GTC 2025 Keynote mmosite 2 MMOSITE - Thông tin công nghệ

Huang mở đầu bằng hành trình phát triển AI trong thập kỷ qua. Ông chia quá trình này thành bốn giai đoạn: Perception AI (nhận diện giọng nói, hình ảnh), Generative AI (tạo nội dung), Agentic AI (AI tự hành), và hiện tại là Physical AI (AI vật lý ứng dụng trong robot và thế giới thực). Theo ông, NVIDIA đã đóng vai trò trung tâm trong việc cung cấp phần cứng cho các ứng dụng này, từ xe tự lái, mạng không dây, đến robot tiên tiến.

Công bố Blackwell Ultra và Rubin

Điểm nhấn chính của bài trình bày là công bố Blackwell Ultra (B300 series), phiên bản nâng cấp của dòng chip Blackwell ra mắt năm 2024. Chip này được cải thiện hiệu suất AI gấp 1,5 lần so với phiên bản trước, với dung lượng bộ nhớ HBM tăng từ 192GB lên 288GB. Huang cho biết Blackwell Ultra sẽ bắt đầu xuất xưởng vào nửa cuối năm 2025, nhắm đến các trung tâm dữ liệu và ứng dụng AI quy mô lớn. Tuy nhiên, ông không tiết lộ chi tiết kỹ thuật như số lượng transistor hay mức tiêu thụ điện, khiến một số nhà phân tích cho rằng thông tin còn thiếu chiều sâu.

GTC 2025 Keynote mmosite 15 MMOSITE - Thông tin công nghệ GTC 2025 Keynote mmosite 14 MMOSITE - Thông tin công nghệ

Ngoài ra, Huang hé lộ về Rubin – dòng GPU thế hệ tiếp theo – dự kiến ra mắt vào năm 2026, đi kèm với CPU Vera. Ông mô tả Rubin là “bước nhảy vọt” trong tính toán, nhưng không cung cấp thêm thông tin về kiến trúc hay ứng dụng cụ thể. Đây là một phần trong chiến lược của NVIDIA nhằm duy trì chu kỳ ra mắt sản phẩm mới mỗi năm, dù thời điểm ra mắt 2026 khiến một số nhà đầu tư thất vọng khi kỳ vọng sớm hơn.

NVIDIA Dynamo

Một công bố đáng chú ý khác là NVIDIA Dynamo, một phần mềm mã nguồn mở mới được giới thiệu tại GTC 2025. Dynamo là một framework phục vụ suy luận (inference) với độ trễ thấp và thông lượng cao, được thiết kế để tối ưu hóa hiệu suất AI trên quy mô lớn. Phần mềm này có khả năng phân phối công việc suy luận qua tối đa 1.000 GPU, tăng tốc độ xử lý token mỗi giây – một chỉ số quan trọng trong các ứng dụng AI như chatbot hoặc mô hình ngôn ngữ lớn. Huang cho biết Dynamo có thể nâng cao doanh thu cho các “nhà máy AI” bằng cách tăng số lượng token xử lý hoặc cung cấp dịch vụ cao cấp với tốc độ nhanh hơn. Phần mềm đã được phát hành trên GitHub ngay trong ngày 18/3, đánh dấu nỗ lực của NVIDIA trong việc cải thiện hiệu quả tính toán AI.

GTC 2025 Keynote mmosite 3 MMOSITE - Thông tin công nghệ

Hệ thống workstation DGX mới: Spark và Station

Huang cũng giới thiệu hai thiết bị workstation mới: DGX Spark và DGX Station, nhắm đến các nhà phát triển AI và nhà khoa học dữ liệu. DGX Spark (trước đây gọi là Project DIGITS) sử dụng siêu chip GB10 Grace Blackwell, cung cấp hiệu suất AI lên đến 1.000 nghìn tỷ phép tính mỗi giây (1 petaflops). Thiết bị này được thiết kế để chạy các mô hình AI cục bộ mà không cần phụ thuộc vào đám mây, với mục tiêu giảm chi phí và tăng tính linh hoạt cho người dùng.

GTC 2025 Keynote mmosite 19 MMOSITE - Thông tin công nghệ GTC 2025 Keynote mmosite 12 MMOSITE - Thông tin công nghệ

Trong khi đó, DGX Station được trang bị Grace Blackwell Ultra Desktop Superchip GB300, kết hợp với 784GB bộ nhớ DRAM. Đây là phiên bản nâng cấp của dòng DGX Station ra mắt năm 2017, chuyển từ CPU Intel sang kiến trúc Grace Blackwell của NVIDIA. Các hãng như Asus, Dell, HP, Lambda và Supermicro sẽ sản xuất thiết bị này, với thời điểm phát hành dự kiến vào cuối năm 2025. Huang mô tả đây là “máy tính của kỷ nguyên AI”, phù hợp cho việc phát triển và thử nghiệm mô hình tại chỗ.

Vai trò của NVIDIA trong lượng tử và Quantum Day

Liên quan đến “Quantum Day” dự kiến diễn ra ngày 20.3, Huang đề cập ngắn gọn về nỗ lực của NVIDIA trong điện toán lượng tử. Ông xác nhận sự kiện này sẽ tập trung vào hệ thống lai lượng tử-cổ điển, sử dụng framework CUDA-Q để mô phỏng lượng tử trên GPU. “Chúng ta chưa sẵn sàng cho lượng tử độc lập, nhưng hệ thống lai là con đường thực tế,” Huang nói, nhắc lại quan điểm từ CES 2025 rằng lượng tử thực dụng còn cách 15-30 năm. Ông cũng ám chỉ công nghệ mạng Quantum InfiniBand có thể tích hợp quang học đồng gói (CPO), nhưng không xác nhận cụ thể.

Hợp tác và ứng dụng thực tiễn

Một số công bố khác cũng thu hút sự chú ý. NVIDIA hợp tác với General Motors (GM) để phát triển xe tự lái, giới thiệu hệ thống an toàn NVIDIA HALO dựa trên chip của hãng. Huang cũng trình diễn robot Blue – kết quả hợp tác với Google DeepMind và Disney Research – với khả năng phản hồi cử chỉ và âm thanh. Robot này được đánh giá là minh chứng cho ứng dụng của Physical AI, nhưng tính thực tiễn trong đời sống vẫn còn là câu hỏi.

GTC 2025 Keynote mmosite 11 MMOSITE - Thông tin công nghệ

Bài trình bày của Huang kết thúc bằng lời kêu gọi các nhà phát triển tham gia vào hệ sinh thái NVIDIA. Video phát lại hiện đã có trên NVIDIA.com và YouTube, cho phép người xem đánh giá chi tiết các công bố. Với GTC 2025 còn tiếp diễn đến ngày 21.3, các phiên thảo luận sắp tới, đặc biệt là Quantum Day, có thể cung cấp thêm thông tin để làm sáng tỏ những gì NVIDIA đã giới thiệu hôm nay.

Một số các hình ảnh khác tại keynote GTC 2025

BYD hé lộ mẫu xe điện Sealion 05 và ra mắt bộ sạc nhanh 1 MW

0

BYD tiếp tục mở rộng dòng xe điện của mình bằng mẫu xe sắp ra mắt có tên Sealion 05 EV. Chiếc SUV nhỏ gọn này được thiết kế để cạnh tranh trên thị trường xe điện crossover.

Mẫu xe là một phần của dòng xe Sealion và mang đến những tính năng mới mẻ cùng mức giá cạnh tranh cho người tiêu dùng. Dựa trên thông tin do BYD công bố, Sealion 05 EV sẽ chạy trên một nền tảng hoàn toàn mới, có hệ thống truyền động dẫn động cầu sau và hệ thống lái xe thông minh God’s Eye tiên tiến của công ty.

BYD teases new Sealion 05 EV and unveils 1 MGW fast charger - 400 km in 5 minutes

Sealion 05 EV ra mắt thị trường với hai phiên bản, cung cấp các tùy chọn pin và động cơ khác nhau. Xe có chiều dài 4.520 mm, rộng 1.860 mm và cao 1.630 mm, với chiều dài cơ sở 2.720 mm. Trọng lượng khác nhau giữa hai phiên bản, là 1.780 kg và 1.670 kg. Cả hai mẫu xe đều có thể đạt tốc độ tối đa 180 km/h.

Có hai tùy chọn công suất cho Sealion 05 EV – cả hai đều là động cơ đơn với công suất cực đại là 140 kW hoặc 160 kW. Các tùy chọn pin bao gồm bộ pin 50 kWh cung cấp phạm vi hoạt động 430 km và bộ pin 61 kWh cung cấp phạm vi hoạt động 520 km. Sealion 05 EV sẽ có giá khoảng 150.000 RMB (chưa đến 18.900 €).

BYD teases new Sealion 05 EV and unveils 1 MGW fast charger - 400 km in 5 minutes

BYD cũng đang đạt được những tiến bộ to lớn trong công nghệ sạc. Công ty đã tiết lộ “Bộ sạc nhanh Megawatt” 1.000 kW, có khả năng sạc lại 400 km phạm vi di chuyển chỉ trong năm phút. Hệ thống này là một phần trong dự án siêu nền tảng điện tử của BYD, sử dụng hệ thống điện áp cao 1000V và tốc độ sạc 10C. BYD có kế hoạch lắp đặt hơn bốn nghìn trạm sạc megawatt này trên khắp Trung Quốc.

BYD teases new Sealion 05 EV and unveils 1 MGW fast charger - 400 km in 5 minutes

Công nghệ sạc mới hỗ trợ các loại xe điện hiệu suất cao mới nhất của BYD – Han L EV và Tang L EV. Những chiếc xe này sử dụng mô-đun nguồn silicon-carbide 1500V với tốc độ xả cao và hiệu suất được cải thiện đáng kể. Động cơ điện trục sau trong các mẫu xe này có thể tạo ra công suất 580 kW và cung cấp khả năng tăng tốc ấn tượng, khi có thể đạt 100 km/h trong khoảng hai giây và tốc độ tối đa vượt quá 300 km/h.

Nguồn: arenaev

BMW sẽ tích hợp HiCar và HarmonyOS của Huawei vào xe điện Trung Quốc

0

BMW cho rằng cách tốt nhất để thông minh hóa những chiếc xe của mình tại Trung Quốc là hợp tác với gã khổng lồ công nghệ địa phương như Huawei. Hai công ty sẽ hợp tác để tích hợp hệ thống HiCar và HarmonyOS 5.0 vào những chiếc xe điện tại thị trường tỷ dân. 

Quan hệ đối tác này tập trung vào việc phát triển hệ sinh thái ứng dụng thông minh dựa trên HarmonyOS gốc của Huawei. BMW có kế hoạch tích hợp các dịch vụ kỹ thuật số của mình, chẳng hạn như chìa khóa kỹ thuật số và ứng dụng My BMW, với hệ thống HiCar của Huawei. Mục tiêu là tạo ra kết nối liền mạch giữa xe BMW và các thiết bị Huawei, mang đến trải nghiệm sử dụng xe trực quan và thông minh hơn.

BMW partners with Huawei for smarter electric cars in China

Cụ thể, BMW muốn phát triển hệ sinh thái ứng dụng thông minh dựa trên HarmonyOS NEXT cho những chiếc xe điện thế hệ tiếp theo của mình. Các ứng dụng như ứng dụng My BMW và ứng dụng MINI đã tương thích với hệ sinh thái HarmonyOS gốc. Theo thống kê, gần một phần tư người dùng ứng dụng My BMW tại Trung Quốc sở hữu thiết bị Huawei. Bằng cách tích hợp công nghệ của Huawei, nhà sản xuất ô tô Đức hy vọng sẽ cải thiện khả năng kết nối thông minh và trải nghiệm ứng dụng trên xe cho người dùng HarmonyOS.

BMW partners with Huawei for smarter electric cars in China

Những chiếc xe điện đầu tiên có hệ thống HiCar của Huawei dự kiến ​​sẽ ra mắt thị trường Trung Quốc vào năm 2026. Điều này sẽ giúp cả hai công ty có đủ thời gian để tích hợp công nghệ của mình một cách triệt để và phát triển các hệ thống đáng tin cậy.

Nguồn: arenaev

APU Ryzen AI MAX+ 395 “Strix Halo” nhanh hơn RTX 5080 gấp 3 lần trong bài kiểm tra DeepSeek R1 AI Benchmarks

0

Cuộc đua về điện toán AI đang ngày càng gay gắt, nhất là giữa các ông lớn, khi AMD APU Ryzen AI MAX+ 395 “Strix Halo” cung cấp hiệu năng mạnh hơn RTX 5080 gấp 3 lần trong bài kiểm tra AI DeepSeek R1.

AMD Ryzen AI MAX+ 395 đại diện cho bước tiến đáng kể về khả năng xử lý AI. Bộ xử lý kết hợp nhân CPU Zen 5 với NPU XDNA 2 50 TOPS và GPU tích hợp, mang lại hiệu suất AI chưa từng có cho các thiết bị laptop mỏng và nhẹ cao cấp. Nó chứng minh những cải tiến đáng kể trong việc chạy các mô hình AI cục bộ, đặc biệt là trong các ứng dụng LLM, với lợi thế hiệu suất đáng kể so với các đối thủ cạnh tranh.

apu-ryzen-ai-max+-395-strix-halo-nhanh-hon-rtx-5080

Bộ xử lý này vượt trội trong các khối lượng công việc AI của người tiêu dùng như ứng dụng chạy trên llama.cpp, LM Studio, đang dần trở thành sự hỗ trợ tối ưu, cho phép người dùng chạy cục bộ mô hình ngôn ngữ mới nhất mà không cần bất kỳ kiến ​​thức kỹ thuật nào.

AMD Ryzen AI MAX 395 APU Strix Halo vs RTX 5080 AI Benchmarks 6 MMOSITE - Thông tin công nghệ

Trong bài kiểm tra điểm chuẩn mới nhất, AMD đang trình diễn hiệu suất AI của APU Strix Halo so với GPU Blackwell mới nhất của NVIDIA. Công ty đang cho chúng ta biết những lợi ích của 128 GB VRAM lớn trên APU Ryzen AI MAX+ 395, có thể cung cấp hiệu suất vượt trội lên tới 3,05 lần so với card đồ họa rời.

AMD Ryzen AI MAX 395 APU Strix Halo vs RTX 5080 AI Benchmarks 7 MMOSITE - Thông tin công nghệ

Đó là vì APU Strix Halo có thể được liên kết với VRAM 128 GB đầy đủ, trong khi GPU RTX 5080 rời rạc bị giới hạn ở 16 GB VRAM. Ngay cả RTX 5090 cao cấp hơn cũng chỉ có VRAM 32 GB nhưng tiêu thụ nhiều điện năng hơn, 360W trong trường hợp của 5080 và 575W trong trường hợp của RTX 5090.

Nguồn: wccftech

Dòng sản phẩm Snapdragon G Series thế hệ mới nâng tầm trải nghiệm chơi game cầm tay

0

Tại Hội nghị các Nhà phát triển game (Game Developers Conference), Qualcomm Technologies, Inc. đã công bố Nền tảng Gaming Snapdragon G Series Gaming Platforms năm 2025, được thiết kế chuyên dụng nhằm cung cấp sức mạnh cho các thiết bị chơi game cầm tay, phục vụ đa dạng nhu cầu đa dạng của người chơi.

  • Snapdragon G3 Gen 3 là nền tảng đầu tiên trong dòng Snapdragon G Series hỗ trợ Lumen – hệ thống phản xạ và chiếu sáng toàn cầu hoàn toàn năng động của Unreal Engine 5 dành cho các thiết bị chơi game cầm tay chạy hệ điều hành Android. So với thế hệ trước đó, Snapdragon G3 Gen 3 có hiệu suất CPU nhanh hơn 30% và khả năng xử lý các tác vụ đồ họa phức tạp nhanh hơn 28%, tối ưu hóa năng lượng tốt hơn và giảm thiểu lãng phí năng lượng. Với kết nối Wi-Fi 7, người chơi có thể giảm độ trễ và tăng băng thông đáng kể.
  • Snapdragon G2 Gen 2 hướng đến việc chơi game và chơi game đám mây ở tốc độ 144FPS trên các thiết bị chơi game chuyên dụng, tạo sự cân bằng lý tưởng giữa hiệu năng cao và tối ưu năng lượng, với tốc độ xử lý các tác vụ của CPU tăng 2.3 lần và khả năng xử lý đồ họa của GPU nhanh hơn 3,8 lần so với Snapdragon G2 Gen 1. Nền tảng này cũng hỗ trợ Wi-Fi 7 để kết nối không dây nhanh hơn và đáng tin cậy hơn.
  • Snapdragon G1 Gen 2 được thiết kế để mang lại hiệu suất mạnh mẽ cho đông đảo người dùng, hỗ trợ độ phân giải lên đến 1080p ở tốc độ 120 FPS qua kết nối Wi-Fi. Nền tảng này cũng mang đến hiệu suất CPU nhanh hơn 80% và GPU nhanh hơn 25%, đảm bảo trải nghiệm chơi game mượt mà khi chơi game trên đám mây với các thiết bị chơi game cầm tay Android chuyên dụng.

dong-san-pham-snapdragon-g-series-the-he-moi

“Các nền tảng chơi game Snapdragon G Series đang định nghĩa lại trải nghiệm chơi game di động với hiệu suất vượt trội và trải nghiệm nhập vai chân thực, sống động,” ông Micah Knapp, Giám đốc Cấp cao thuộc bộ phận Quản lý Sản phẩm tại Qualcomm Technologies, Inc., cho biết. “Bộ  vi xử lý thế hệ tiếp theo này sẽ  thúc đẩy tương lai của lĩnh vực game cầm tay, hỗ trợ đa dạng kiểu chơi và thiết kế  thiết bị, đồng thời tạo nền tảng để các nhà sản xuất và nhà phát triển thỏa sức sáng tạo”.

Chips with Specs Slide result MMOSITE - Thông tin công nghệ

Trong quý này, các nhà sản xuất thiết bị gốc (OEMs) sẽ bắt đầu ra mắt thiết bị được trang bị các vi xử lý thuộc dòng sản phẩm Snapdragon G Series mới nhất. Tìm hiểu thêm về toàn bộ danh mục Snapdragon G Series tại đây.

Dự đoán GTC 2025: NVIDIA nâng cấp máy chủ AI

0

Hội nghị Công nghệ GPU (GTC) của NVIDIA chính thức khai mạc tại San Jose, California, thu hút sự chú ý của giới công nghệ và nhà đầu tư. Trong bối cảnh này, nhà phân tích Ming-Chi Kuo từ công ty TF International Securities đã công bố báo cáo dự đoán những gì NVIDIA có thể trình làng tại sự kiện năm nay. 

An image of the GB200 NVL72 and NVLink spine.
ảnh: Nvidia

Theo Kuo, NVIDIA dự kiến sẽ giới thiệu GB300 NVL72, phiên bản nâng cấp của dòng chip Blackwell được ra mắt năm 2024. Chip này được cho là sẽ tăng dung lượng bộ nhớ HBM từ 192GB lên 288GB, đồng thời cải thiện hiệu suất lên hơn 50% so với phiên bản trước. Đây là một bước tiến đáng kể trong lĩnh vực máy chủ AI, nơi nhu cầu về sức mạnh tính toán ngày càng tăng. Kuo cũng cho biết quá trình sản xuất thử nghiệm của GB300 NVL72 có thể bắt đầu từ quý 2/2025, với kế hoạch đưa vào sản xuất hàng loạt vào cuối năm.

Ngoài ra, báo cáo đề cập khả năng NVIDIA hé lộ thông tin về dòng chip Rubin và CPU Vera, hai sản phẩm được xem là nền tảng cho các thiết bị tính toán thế hệ tiếp theo. Tuy nhiên, Kuo nhận định rằng các sản phẩm này nhiều khả năng chỉ được giới thiệu sơ bộ tại GTC 2025, với thời điểm ra mắt chính thức có thể rơi vào năm 2026. Điều này phù hợp với chu kỳ phát triển sản phẩm thường thấy của NVIDIA, khi công ty thường công bố kế hoạch dài hạn tại các sự kiện lớn.

9ee71150 f4eb 11ef af35 8470618427b4 MMOSITE - Thông tin công nghệ
Ảnh: Reuters

Bối cảnh thị trường cũng được Kuo phân tích trong báo cáo. Cổ phiếu NVIDIA (NVDA) đã giảm hơn 20% từ mức cao nhất trong năm nay, chịu áp lực từ cạnh tranh trong ngành AI và biến động kinh tế. GTC 2025, đặc biệt là bài phát biểu của CEO Jensen Huang vào ngày 18/3, được kỳ vọng sẽ cung cấp thông tin chi tiết để định hướng lại niềm tin của nhà đầu tư. Dù vậy, Kuo không đưa ra nhận định cụ thể về tác động tài chính của các công bố này.

Thông tin từ Kuo cũng phản ánh xu hướng chung của ngành công nghệ, khi các công ty như NVIDIA đang phải đối mặt với áp lực nâng cấp liên tục để đáp ứng nhu cầu AI và điện toán đám mây. Tuy nhiên, ông không đề cập đến các đối thủ cạnh tranh trực tiếp hay khả năng các công bố này bị ảnh hưởng bởi những yếu tố ngoài dự kiến. Báo cáo của Kuo hiện là một trong những nguồn tham khảo chính trước khi NVIDIA chính thức lên tiếng tại GTC.

Sự kiện GTC 2025 kéo dài đến ngày 21/3, và mọi ánh mắt đang đổ dồn vào các thông báo chính thức từ NVIDIA để xác nhận hoặc bác bỏ những dự đoán này.