HomeAIMô hình AI siêu nhỏ của Samsung vượt mặt các LLM khổng...

Mô hình AI siêu nhỏ của Samsung vượt mặt các LLM khổng lồ như Gemini 2.5 Pro

Published on

Bộ phận nghiên cứu AI của Samsung đang gây chú ý lớn, khi vừa công bố một mô hình AI siêu nhỏ có khả năng vượt qua các mô hình ngôn ngữ khổng lồ (LLM) — thậm chí lớn gấp 10.000 lần — trong các bài kiểm tra tư duy logic phức tạp.

Tiny Recursive Model – “bộ não” tí hon với năng lực tự cải thiện

Trong bài nghiên cứu mang tên “Less is More: Recursive Reasoning with Tiny Networks”, Samsung trình bày chi tiết kiến trúc của Tiny Recursive Model (TRM) — một mô hình AI gồm chỉ hai lớp (2-layer) với 7 triệu tham số, nhỏ hơn hàng nghìn lần so với các LLM hiện nay vốn có quy mô hàng tỷ tham số.

mo-hinh-ai-cua-samsung-vuot-mat-cac-llm-khong-lo

Điểm đột phá nằm ở cách hoạt động của TRM:

  • Mô hình sử dụng chính đầu ra của mình làm đầu vào cho bước kế tiếp, tạo nên vòng phản hồi tự cải thiện (self-improving feedback loop).
  • Qua mỗi chu kỳ đệ quy, TRM có thể mô phỏng tư duy của một kiến trúc sâu hơn mà không cần thêm tài nguyên bộ nhớ hay tính toán.
  • Mỗi lần “tự xem lại” kết quả trước đó, mô hình tự tinh chỉnh, sửa lỗi và cải thiện độ chính xác — giống như một người viết đọc lại bản nháp và chỉnh sửa từng bước.

Cách tiếp cận này giúp TRM tránh được điểm yếu của nhiều LLM hiện nay — vốn dễ “sập” chuỗi suy luận nếu sai một bước trong quá trình chain-of-thought.

Ít hơn nhưng hiệu quả hơn

Samsung nhận thấy rằng tăng số lớp mạng làm giảm khả năng khái quát do overfitting, trong khi giảm số lớp nhưng tăng số lần đệ quy lại cải thiện đáng kể hiệu năng tổng thể.

TRM: One tiny network diagram detailing 7M Parameters and features like Self-Correction and Minimal Parameters.

Kết quả thử nghiệm:

  • 87,4% độ chính xác trong bài Sudoku-Extreme (so với 55% của các mô hình suy luận phân cấp thông thường).
  • 85% trên bài Maze-Hard.
  • 45% trên bài ARC-AGI-1.
  • 8% trên bài ARC-AGI-2 — vốn được xem là cực kỳ khó ngay cả với các LLM hàng đầu.

Đáng chú ý, Tiny Recursive Model của Samsung đã vượt qua hoặc tiệm cận hiệu suất của nhiều mô hình AI tiên tiến như DeepSeek R1, Gemini 2.5 Pro của Google, và o3-mini của OpenAI — dù chỉ sử dụng một phần rất nhỏ số tham số so với chúng.

Thành công của TRM cho thấy một hướng đi mới cho ngành trí tuệ nhân tạo: “đơn giản hóa để thông minh hơn”.
Thay vì mở rộng vô hạn quy mô của LLM, Samsung chứng minh rằng tư duy đệ quy và tự phản hồi có thể giúp các mô hình nhỏ suy luận sâu, chính xác và tiết kiệm năng lượng hơn nhiều.

Nếu được mở rộng và ứng dụng thực tế, TRM có thể mở đường cho một thế hệ AI “nhẹ” nhưng hiệu quả, phù hợp với thiết bị di động, robot và điện toán nhúng — nơi sức mạnh đi cùng tính tối giản.

Nguồn: wccftech

tin mới nhất

Gigabyte ra mắt card đồ họa AORUS RTX 5090 Infinity ép xung sẵn 323 MHz

Gigabyte vừa phát hành card đồ họa AORUS RTX 5090 Infinity, nổi bật với...

Synology ra mắt BC510 và TC510: Bộ đôi camera đa năng tích hợp AI cho giám sát thông minh

Hôm nay, Synology chính thức ra mắt BC510 và TC510, thế hệ camera tích...

AMD MI430X trở thành GPU FP64 mạnh nhất, vượt hiệu suất NVIDIA Rubin tới 6 lần

AMD công bố GPU Instinct MI430X với hiệu suất FP64 cao nhất hiện nay,...

Huawei ra mắt toàn cầu Watch Fit 5, Watch Fit 5 Pro và Watch GT Runner 2

Huawei chính thức phân phối quốc tế dòng đồng hồ thông minh thế hệ...

Apple ngừng bán bản 256GB của Mac Studio M3 Ultra để dự trữ bộ nhớ

Apple chính thức loại bỏ tùy chọn bộ nhớ 256GB trên dòng Mac Studio...

tin liên quan

Công nghệ ENSS trên Samsung Exynos 2600 tăng 15% hiệu năng

Vi xử lý Samsung Exynos 2600 tích hợp công...

Samsung hoãn sản xuất bộ nhớ HBM5E vô thời hạn

Samsung hoãn vô thời hạn quá trình sản xuất...

Pin silicon-carbon 20.000mAh của Samsung thử nghiệm thất bại ở chu kỳ 960

Samsung đã ngừng phát triển mẫu pin silicon-carbon 20.000mAh...

Samsung dự kiến trang bị pin silicon-carbon cho dòng Galaxy S thế hệ mới

Sau nhiều năm giữ nguyên dung lượng, Samsung dự...