HomeAIMô hình AI siêu nhỏ của Samsung vượt mặt các LLM khổng...

Mô hình AI siêu nhỏ của Samsung vượt mặt các LLM khổng lồ như Gemini 2.5 Pro

Published on

Bộ phận nghiên cứu AI của Samsung đang gây chú ý lớn, khi vừa công bố một mô hình AI siêu nhỏ có khả năng vượt qua các mô hình ngôn ngữ khổng lồ (LLM) — thậm chí lớn gấp 10.000 lần — trong các bài kiểm tra tư duy logic phức tạp.

Tiny Recursive Model – “bộ não” tí hon với năng lực tự cải thiện

Trong bài nghiên cứu mang tên “Less is More: Recursive Reasoning with Tiny Networks”, Samsung trình bày chi tiết kiến trúc của Tiny Recursive Model (TRM) — một mô hình AI gồm chỉ hai lớp (2-layer) với 7 triệu tham số, nhỏ hơn hàng nghìn lần so với các LLM hiện nay vốn có quy mô hàng tỷ tham số.

mo-hinh-ai-cua-samsung-vuot-mat-cac-llm-khong-lo

Điểm đột phá nằm ở cách hoạt động của TRM:

  • Mô hình sử dụng chính đầu ra của mình làm đầu vào cho bước kế tiếp, tạo nên vòng phản hồi tự cải thiện (self-improving feedback loop).
  • Qua mỗi chu kỳ đệ quy, TRM có thể mô phỏng tư duy của một kiến trúc sâu hơn mà không cần thêm tài nguyên bộ nhớ hay tính toán.
  • Mỗi lần “tự xem lại” kết quả trước đó, mô hình tự tinh chỉnh, sửa lỗi và cải thiện độ chính xác — giống như một người viết đọc lại bản nháp và chỉnh sửa từng bước.

Cách tiếp cận này giúp TRM tránh được điểm yếu của nhiều LLM hiện nay — vốn dễ “sập” chuỗi suy luận nếu sai một bước trong quá trình chain-of-thought.

Ít hơn nhưng hiệu quả hơn

Samsung nhận thấy rằng tăng số lớp mạng làm giảm khả năng khái quát do overfitting, trong khi giảm số lớp nhưng tăng số lần đệ quy lại cải thiện đáng kể hiệu năng tổng thể.

TRM: One tiny network diagram detailing 7M Parameters and features like Self-Correction and Minimal Parameters.

Kết quả thử nghiệm:

  • 87,4% độ chính xác trong bài Sudoku-Extreme (so với 55% của các mô hình suy luận phân cấp thông thường).
  • 85% trên bài Maze-Hard.
  • 45% trên bài ARC-AGI-1.
  • 8% trên bài ARC-AGI-2 — vốn được xem là cực kỳ khó ngay cả với các LLM hàng đầu.

Đáng chú ý, Tiny Recursive Model của Samsung đã vượt qua hoặc tiệm cận hiệu suất của nhiều mô hình AI tiên tiến như DeepSeek R1, Gemini 2.5 Pro của Google, và o3-mini của OpenAI — dù chỉ sử dụng một phần rất nhỏ số tham số so với chúng.

Thành công của TRM cho thấy một hướng đi mới cho ngành trí tuệ nhân tạo: “đơn giản hóa để thông minh hơn”.
Thay vì mở rộng vô hạn quy mô của LLM, Samsung chứng minh rằng tư duy đệ quy và tự phản hồi có thể giúp các mô hình nhỏ suy luận sâu, chính xác và tiết kiệm năng lượng hơn nhiều.

Nếu được mở rộng và ứng dụng thực tế, TRM có thể mở đường cho một thế hệ AI “nhẹ” nhưng hiệu quả, phù hợp với thiết bị di động, robot và điện toán nhúng — nơi sức mạnh đi cùng tính tối giản.

Nguồn: wccftech

tin mới nhất

Intel ra mắt vi xử lý Wildcat Lake cạnh tranh với MacBook Neo

Intel vừa ra mắt dòng vi xử lý Wildcat Lake Core Series 3 dành...

RAZER RA MẮT TAI NGHE CHƠI GAME NHÉT TAI HAMMERHEAD V3 HYPERSPEED

Chuyển đổi linh hoạt giữa kết nối Razer HyperSpeed Wireless (2,4GHz) và Bluetooth 6.0,...

Showcase Lineage W – Hé lộ bí mật của class duy nhất được đặt Huyết Thệ sắp ra mắt tại Việt Nam

Showcase đầu tiên của Lineage W SEA dự kiến diễn ra vào ngày 18/4...

ROG Flow Z13-KJP và TUF Gaming A14 2026 chính thức ra mắt tại thị trường Việt Nam

ASUS Republic of Gamers (ROG) chính thức ra mắt hai mẫu laptop gaming mỏng...

Build PC để chiến game AAA: Đừng quên bộ đôi tốc độ Biwin DW100 và NV7400

Để khung hình luôn duy trì ở mức tối đa, triệt tiêu hoàn toàn...

tin liên quan

Pin silicon-carbon 20.000mAh của Samsung thử nghiệm thất bại ở chu kỳ 960

Samsung đã ngừng phát triển mẫu pin silicon-carbon 20.000mAh...

Samsung dự kiến trang bị pin silicon-carbon cho dòng Galaxy S thế hệ mới

Sau nhiều năm giữ nguyên dung lượng, Samsung dự...

Kích thước camera của Galaxy S26 Ultra thua kém các đối thủ cùng phân khúc

Kích thước cảm biến camera của Samsung Galaxy S26...

Samsung kỳ vọng nhu cầu chip nhớ bùng nổ, hé lộ công nghệ HBM mới

Lãnh đạo Samsung dự báo nhu cầu bộ nhớ...