币界網消息,Odyssey公司將強化學習(RLHF)引入視覺模型訓練,發布了prowl框架,首次將RL引入世界模型的訓練循環。該框架通過派遣RL智能體在遊戲環境中探索,尋找模型在幾何、運動、視覺一致性和動作響應上的失敗案例,並將這些bug打包成訓練數據反哺模型。prowl設計了優先級對抗軌跡緩衝區(PAT),當模型修復簡單bug後,PAT會自動推送更難的失敗案例。團隊在Minecraft的Minerl環境中驗證了prowl,量化結果顯示,prowl相比預訓練基線將動作跟隨誤差降低了12.6%,在最難的前10%片段上降幅擴大到20.9%。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 回覆
  • 轉發
  • 分享
回覆
請輸入回覆內容
請輸入回覆內容
暫無回覆