Command Palette
Search for a command to run...
代理熵平衡策略优化 AEPO
Agentic Entropy-Balanced Policy Optimization(AEPO)是由中国人民大学联合快手研究团队于 2025 年 10 月提出的,相关研究成果发表于论文「Agentic Entropy-Balanced Policy Optimization」。
AEPO 是一种旨在在策略展开和策略更新阶段平衡熵的代理强化学习(RL)算法,由两个核心组件构成:(1)一种动态熵平衡的扩展机制,通过熵预监控自适应分配全局和分支采样预算,同时对连续的高熵工具调用步骤施加分支惩罚以防止过度分支问题;(2)熵平衡策略优化,将停止梯度操作插入到高熵裁剪项中,以保留并适当重缩放高熵标记上的梯度,同时结合熵感知优势估计以优先学习高不确定性标记。在 14 个具有挑战性的数据集上的结果表明,AEPO 始终优于 7 种主流 RL 算法。