← Quay lại Blog
aiai-perceptionvlareinforcement-learningresearch

SimpleVLA-RL (4): Kết quả & Bài học

Phân tích kết quả SimpleVLA-RL: ablation studies, hiện tượng pushcut, real-world transfer, và 5 bài học rút ra.

Nguyễn Anh Tuấn11 tháng 4, 202614 phút đọc
SimpleVLA-RL (4): Kết quả & Bài học

Kết quả thực nghiệm: Con số nói lên tất cả

Sau khi đã hiểu kiến trúccách setup training, giờ là lúc nhìn vào kết quả. Và phải nói thẳng: kết quả của SimpleVLA-RL (arXiv:2509.09674, ICLR 2026) vượt xa kỳ vọng ban đầu của mình. Từ mức 86% lên 99% trên LIBERO, từ 39% lên 70% trên RoboTwin, và đặc biệt — chỉ 1 demonstration + RL đã gần bằng 500 demonstrations + RL.

Bài này sẽ phân tích từng kết quả, giải thích tại sao chúng quan trọng, và rút ra 5 bài học cốt lõi cho bất kỳ ai muốn áp dụng RL vào robot learning.

Biểu đồ phân tích kết quả — SimpleVLA-RL cải thiện đáng kể trên mọi benchmark

LIBERO: Từ tốt lên gần hoàn hảo

LIBERO là benchmark gồm 4 suites với độ khó tăng dần: Spatial, Object, Goal, và Long. Mỗi suite có 10 tasks, đánh giá trên 50 episodes mỗi task.

Bảng kết quả LIBERO

Suite SFT (baseline) SFT + RL Cải thiện
Spatial 95.3% 99.1% +3.8%
Object 90.6% 99.2% +8.6%
Goal 86.5% 98.5% +12.0%
Long 91.0% 99.1% +8.1%

Nhìn vào bảng, bạn có thể nghĩ "+3.8% trên Spatial thì không ấn tượng lắm". Nhưng hãy suy nghĩ lại: từ 95.3% lên 99.1% nghĩa là giảm tỷ lệ thất bại từ 4.7% xuống 0.9% — giảm hơn 5 lần. Trong manufacturing, đây là sự khác biệt giữa "khá tốt" và "production-ready".

Suite Goal có cải thiện lớn nhất (+12%) vì đây là nơi SFT yếu nhất. RL đặc biệt hiệu quả khi model đã có khả năng cơ bản nhưng chưa tối ưu — nó "đánh bóng" performance, đặc biệt ở những edge cases mà demonstrations không cover.

Cách đánh giá (Evaluation)

Để evaluate model sau khi train, chỉ cần thay đổi config trong training script:

# Trong shell script, set flag:
# trainer.val_only=True
# Rồi chạy lại script bình thường

bash examples/run_openvla_oft_rl_libero.sh

Script sẽ load checkpoint, chạy qua tất cả evaluation episodes, và báo cáo success rate trung bình cho từng task. Kết quả được log lên W&B nếu đã cấu hình.

Cold-start miracle: 1 demo gần bằng 500 demos

Đây là kết quả gây shock nhất trong paper. Tác giả thử giảm số lượng SFT demonstrations xuống mức tối thiểu và chạy RL:

Số demos (SFT) SFT only SFT + RL So sánh
500 demos 91.0% 99.1% Baseline
100 demos 78.4% 98.2% -0.9% so với 500+RL
50 demos 65.2% 97.8% -1.3% so với 500+RL
10 demos 52.1% 97.5% -1.6% so với 500+RL
1 demo 48.9% 96.9% -2.2% so với 500+RL
0 demos 0% 0% RL hoàn toàn thất bại

Hãy dừng lại và cảm nhận con số này: 1 demonstration + RL cho ra kết quả 96.9% — chỉ cách 500 demonstrations + RL có 2.2%.

Điều này có nghĩa gì cho thực tế? Thu thập 500 demonstrations tốn hàng ngày (thậm chí hàng tuần) cho mỗi task. Nhưng thu thập 1 demonstration chỉ mất vài phút. Nếu SimpleVLA-RL scale được, chi phí data collection sẽ giảm hàng trăm lần.

Critical threshold: Không demo = Không học được

Dòng cuối cùng trong bảng là quan trọng nhất: 0 demos → 0% success rate sau RL. RL không phải phép màu — nó cần model có khả năng tối thiểu để tạo ra ít nhất một vài trajectory thành công, từ đó GRPO mới có positive reward signals để optimize.

Tưởng tượng bạn dạy một người chưa bao giờ nấu ăn: bạn có thể cho feedback "ngon" hay "dở" mỗi lần họ nấu, nhưng nếu họ không biết bếp ở đâu, nồi là gì, thì feedback sẽ vô nghĩa. Ít nhất phải chỉ cho họ nấu 1 lần, rồi mới để họ tự cải thiện qua feedback.

RoboTwin: Benchmark khó hơn, cải thiện lớn hơn

RoboTwin là benchmark bimanual manipulation (robot 2 cánh tay), phức tạp hơn LIBERO nhiều vì cần coordination giữa 2 tay.

RoboTwin 1.0

Phương pháp Success Rate
SFT only 39.8%
SFT + RL 70.4%
Cải thiện +30.6%

RoboTwin 2.0

Phương pháp Success Rate
OpenVLA (SFT) 38.3%
RDT 33.3%
π₀ 49.2%
SimpleVLA-RL 68.8%

SimpleVLA-RL vượt π₀ gần 20 điểm phần trăm trên RoboTwin 2.0. Đây là kết quả đáng chú ý vì π₀ là model flow-matching diffusion tiên tiến nhất hiện nay (từ Physical Intelligence), và RDT là Robotics Diffusion Transformer — cả hai đều là heavy-weight models.

Cải thiện +30.6% trên RoboTwin cho thấy RL càng hiệu quả khi baseline SFT càng yếu. Với LIBERO (SFT đã 90%+), room for improvement hẹp. Với RoboTwin (SFT chỉ 39%), RL có nhiều không gian để optimize.

Robot thực hiện manipulation tasks — từ simulation đến real-world

Hiện tượng Pushcut: RL phát hiện chiến lược mới

Một trong những phát hiện thú vị nhất của paper là hiện tượng mà tác giả gọi là "pushcut" — khi RL tự phát hiện ra chiến lược hoàn thành task mà không có trong demonstrations.

Ví dụ: Task "Move Can to Pot"

Tại sao RL chọn push thay vì grasp? Vì push đơn giản hơn — ít bước hơn, ít cơ hội thất bại hơn, và vẫn đạt được binary reward (+1 khi can ở trong pot). RL không care "đẹp" hay "giống người" — nó chỉ care thành công hay thất bại.

Ví dụ khác: "Place Object A to B"

Tương tự, thay vì pick-and-place truyền thống, RL học cách đẩy object từ A sang B khi khoảng cách ngắn và mặt bàn phẳng. Khi khoảng cách xa hoặc có chướng ngại vật, RL vẫn dùng grasp — nó không ngu, nó tối ưu.

Ý nghĩa của Pushcut

Pushcut cho thấy RL không chỉ "cải thiện" chiến lược có sẵn mà có thể phát minh chiến lược hoàn toàn mới. Đây là điều SFT/IL (Imitation Learning) không bao giờ làm được — vì SFT chỉ bắt chước, không sáng tạo.

Đối với nghiên cứu VLA models, pushcut đặt ra câu hỏi: liệu demonstrations có đang giới hạn khả năng robot? Nếu RL có thể phát hiện chiến lược tốt hơn, thì việc thu thập demonstrations "chuẩn" có thực sự cần thiết?

Ablation Studies: Mỗi thành phần đóng góp bao nhiêu?

Tác giả thực hiện ablation study kỹ lưỡng trên LIBERO Long (suite khó nhất) để đo lường đóng góp của từng thành phần:

Dynamic Sampling: +10%

Dynamic sampling là kỹ thuật ưu tiên sample nhiều hơn cho tasks khó. Thay vì chia đều rollouts cho mỗi task, SimpleVLA-RL dành nhiều rollouts hơn cho tasks có success rate thấp.

Cấu hình Success Rate
Uniform sampling 89.1%
Dynamic sampling 99.1%

+10% là con số rất lớn. Dynamic sampling giúp RL tập trung compute vào nơi cần nhất, thay vì lãng phí rollouts vào tasks đã gần perfect.

Higher Clip Range: +5-7%

So sánh symmetric clip (PPO chuẩn) với asymmetric clip:

Clip range Success Rate
Symmetric (0.8, 1.2) 92-94%
Asymmetric (0.2, 1.28) 99.1%

Asymmetric clip cho phép model mạnh dạn tăng probability cho actions tốt (clip trên = 1.28) nhưng hạn chế việc giảm probability cho actions "xấu" (clip dưới = 0.2 tức ratio >= 0.2). Điều này có lý: trong robotics, có nhiều cách thành công nhưng ít cách thất bại rõ ràng — ta muốn model khám phá nhiều chiến lược thành công hơn là trừng phạt thất bại.

Higher Temperature: +8-10%

Temperature Success Rate
1.0 (mặc định) 89-91%
1.6 99.1%

Temperature 1.6 nghe phi trực giác — thông thường ta muốn temperature thấp (0.7) cho output chính xác. Nhưng trong RL training, temperature cao = exploration cao = model thử nhiều strategies = GRPO có nhiều positive samples để học từ. Sau training, inference dùng temperature thấp hơn.

Tổng hợp ablation

Mỗi thành phần đóng góp đáng kể, và chúng cộng hưởng với nhau — dynamic sampling + high clip + high temperature cùng lúc cho kết quả tốt hơn nhiều so với từng thành phần riêng lẻ. Đây là lý do SimpleVLA-RL đạt 99%+ trong khi các phương pháp RL đơn giản hơn chỉ đạt 89-94%.

Generalization: Train 9, test 1

Để đánh giá khả năng generalize, tác giả thử train RL trên 9/10 tasks trong mỗi suite, rồi test trên task thứ 10 chưa từng thấy:

Kết quả: RL model vẫn cải thiện đáng kể trên unseen task, dù không được train trực tiếp. Điều này cho thấy RL không chỉ overfitting vào task cụ thể mà đang học general manipulation skills — grip tốt hơn, trajectory smooth hơn, recovery từ lỗi nhỏ tốt hơn.

Real-world: Sim-to-Real Transfer

SimpleVLA-RL không chỉ hoạt động trong simulation. Tác giả thử nghiệm trên Piper dual-arm robot trong thực tế:

Task SFT only SFT + RL Cải thiện
Stack Bowls 38% 70% +32%
Click Bell 30% 60% +30%
Trung bình 17.5% 38.5% +120%

Đặc biệt, RL được train hoàn toàn trong simulation — không dùng bất kỳ real-world demonstration nào cho RL stage. SFT dùng sim demos, RL train trong sim, rồi deploy thẳng lên real robot.

Mức cải thiện +120% (từ 17.5% lên 38.5%) cho thấy RL policy transfer tốt hơn sang real world so với SFT policy. Giả thuyết: RL tạo ra policy robust hơn vì nó đã thử hàng nghìn trajectories với noise và variation trong sim, trong khi SFT chỉ memorize trajectories từ demonstrations.

So sánh với các baselines

Phương pháp LIBERO Long RoboTwin 2.0
OpenVLA (SFT) 91.0% 38.3%
UniVLA 87.3%
RDT 33.3%
π₀ 49.2%
SimpleVLA-RL 99.1% 68.8%

SimpleVLA-RL vượt trội trên cả hai benchmarks, đặc biệt ấn tượng khi so với π₀ trên RoboTwin — model nhỏ hơn (7B vs 3B PaliGemma backbone trong π₀) nhưng hiệu quả hơn nhờ RL.

5 Bài học cốt lõi

1. Binary reward là đủ — không cần reward engineering

Đây có lẽ là bài học quan trọng nhất. Reward engineering (thiết kế hàm reward phức tạp) là bottleneck lớn nhất khi áp dụng RL vào robotics. SimpleVLA-RL chứng minh rằng chỉ cần +1 (thành công) / 0 (thất bại) là đủ.

Tại sao? Vì GRPO so sánh tương đối giữa các trajectories — nó không cần biết "thành công bao nhiêu phần trăm", chỉ cần biết "trajectory nào tốt hơn trajectory nào". Binary reward + group comparison = đủ signal cho learning.

Bài học ứng dụng: Khi thiết kế RL system cho task mới, đừng bắt đầu bằng thiết kế reward phức tạp. Thử binary reward trước — bạn có thể ngạc nhiên về kết quả.

2. RL phát minh chiến lược mới, vượt xa demonstrations

Pushcut không phải ngoại lệ — đó là tính chất cơ bản của RL. Khi được tự do khám phá, RL sẽ tìm ra chiến lược tối ưu cho objective function, bất kể chiến lược đó có "giống người" hay không.

Bài học ứng dụng: Đừng giới hạn robot bằng demonstrations. Dùng demonstrations để bootstrap (SFT), rồi để RL tự do khám phá. Chiến lược tốt nhất có thể là thứ bạn chưa bao giờ nghĩ tới.

3. Data efficiency: 1 demo + RL ≈ 500 demos

Đây là game-changer cho industry. Thu thập demonstrations tốn kém, đặc biệt cho tasks phức tạp trong manufacturing. Nếu chỉ cần 1 demo + RL training trong sim, chi phí deployment giảm drastically.

Bài học ứng dụng: Khi có task mới, thu thập vài demos nhanh nhất có thể (không cần hoàn hảo), train SFT nhanh, rồi dùng RL để nâng chất lượng. Đừng đợi đến khi có 500 demos "đẹp".

4. Minimum task competence: RL cần nền tảng

0 demos = 0% success sau RL. RL không phải phép màu — nó cần ít nhất một ít "may mắn thành công" để bắt đầu learning loop. Nếu model hoàn toàn không biết gì về task, RL sẽ quay vòng vô ích.

Bài học ứng dụng: Trước khi chạy RL, luôn kiểm tra SFT checkpoint có success rate > 0%. Nếu bằng 0%, thêm demos hoặc train SFT lâu hơn. Rule of thumb: SFT >= 10% success rate là đủ để RL bắt đầu hoạt động.

5. VLA + RL = Tương lai của robot learning

SimpleVLA-RL chứng minh rằng VLA models không bị giới hạn bởi imitation learning. Khi kết hợp VLA + RL:

Đây là xu hướng lớn nhất trong embodied AI 2026: thay vì VLA vs RL, tương lai là VLA × RL.

Hướng phát triển tiếp theo

Flow-matching RL cho π₀ và π₀.5

SimpleVLA-RL dùng autoregressive VLA (OpenVLA). Nhưng thế hệ VLA mới như π₀ dùng flow-matching/diffusion — làm sao áp dụng RL cho chúng? Đây là open research question hấp dẫn nhất hiện tại.

Real-world RL (không qua sim)

Tất cả RL trong SimpleVLA-RL chạy trong simulation. Bước tiếp theo là RL trực tiếp trên real robot — nhưng cần giải quyết safety constraints (robot không được phá đồ trong quá trình exploration).

Multi-task RL

Hiện tại mỗi task cần RL training riêng. Multi-task RL — train 1 policy cho nhiều tasks cùng lúc — sẽ là bước tiếp theo để scaling.

Tổng kết series SimpleVLA-RL

Qua 4 bài viết, chúng ta đã đi từ motivation → kiến trúc → thực hành → phân tích kết quả. SimpleVLA-RL không phải là framework phức tạp nhất hay model lớn nhất — nhưng nó chứng minh một ý tưởng đơn giản và mạnh mẽ: RL với binary reward có thể biến một VLA model "khá" thành một robot manipulation expert.

Paper tham khảo: SimpleVLA-RL: Reinforcement Learning on VLA Models — Haozhan et al., ICLR 2026. GitHub: PRIME-RL/SimpleVLA-RL

Nếu bạn mới bắt đầu với RL cho robotics, hãy đọc bài đầu tiên về RL basics trong series AI cho Robot. Và nếu muốn hands-on ngay, LeRobot tutorial là cách nhanh nhất để bắt đầu thực hành robot learning.


Bài viết liên quan

Bài viết liên quan

Nghiên cứuΨ₀ Hands-On (6): Ablation & Bài học rút ra
ai-perceptionvlaresearchhumanoidpsi0Phần 6

Ψ₀ Hands-On (6): Ablation & Bài học rút ra

Phân tích ablation studies, so sánh baselines, và 5 bài học quan trọng nhất từ Ψ₀ cho người mới bắt đầu.

11/4/202616 phút đọc
Nghiên cứuFlashSAC: RL nhanh hơn PPO cho Robot
ai-perceptionreinforcement-learninghumanoidresearch

FlashSAC: RL nhanh hơn PPO cho Robot

FlashSAC — off-policy RL mới vượt PPO về tốc độ lẫn hiệu quả trên 100+ tasks robotics, từ humanoid locomotion đến dexterous manipulation.

11/4/202610 phút đọc
TutorialSimpleVLA-RL (10): SFT & RL Training cho OpenArm
openarmsimplevla-rltraininggrporeinforcement-learningPhần 10

SimpleVLA-RL (10): SFT & RL Training cho OpenArm

Hướng dẫn chi tiết SFT fine-tuning và RL training với SimpleVLA-RL cho OpenArm — từ config environment đến chạy GRPO.

11/4/202616 phút đọc