模仿学习新范式 :ChainofAction 《轨迹自回》归实现动作——推理

经观智讯2025-07-21 22:32:53

论文标题:Chain-of-Action:TrajectoryAutoregressiveModelingforRoboticManipulation

主页链接:https://chain-of-action.github.io/

代码链接:https://github.com/ByteDance-Seed/Chain-of-Action

模仿学习的困境

具身智能(EmbodiedAI)作为人工智能领域的前沿方向,旨在赋予机器人或智能体在物理世界中感知、决策和行动的能力。近年来,尽管视觉-语言-动作模型(VisionLanguageAction,VLA)已经取得了诸多进展,但具身智能领域尚未迎来「GPT时刻」。越来越多的研究人员开始相信,仅仅增加模型规模和数据量似乎不足以创造出通用操作模型,如果我们想要充分释放现有数据的潜力,就需要找到更有效的机器人操作建模方法。

来自字节跳动Seed&阿德莱德大学的研究者追根溯源,对模仿学习的基本范式进行了反思,发现现有建模思路或许存在缺陷:经典方法如ACT、DiffusionPolicy(DP)都遵循「前向预测」(forward-prediction)范式。而然这种方式不可避免地存在较大的复合误差(compoundingerror)。

在该范式下,策略通常被优化为基于当前观察预测短期的下一步动作,而非确保最终能够成功完成整个任务。虽然引入了动作分块(actionchunking)等策略来缓解复合误差,但无法解决其固有的「短视性」问题。

基于该局限,研究者提出了「动作链」(Chain-of-Action,CoA)——一种基于轨迹自回归的机器人操作策略。与经典范式区分,CoA并不直接由观察映射到执行动作,而是由从最终位置反向自回归的生成轨迹点,推理出可执行的动作。研究团队初步发现,仅仅通过修改建模方式,CoA在与ACT保持相同的基本结构下,空间泛化能力显著提升。这种建模方式为具身操作策略的建模提供了新的思路。

动作链:基于轨迹自回归建模的

机器人操作策略

核心思想:受到思维链(Chain-of-Thought)的启发,CoA并不直接由观察映射到执行动作,而是在动作层面进行迭代式的推理。具体来说,CoA逆向的生成针对目标任务的完整轨迹,这个生成过程统一在一个自回归网络下。自回归过程从「关键帧动作」(keyframeaction)开始,迭代地生成一连串完整的动作轨迹,直至当前的机器人夹爪的位置。

全局到局部一致性:这种「从后往前」的生成方式,为整个动作序列提供了的「全局-局部」(global-to-local)结构性约束。因为每个后续生成的动作都以代表最终目标的「关键帧」为条件,所以最后执行的动作将会被最终目标所「锚定」,空间泛化能力显著得到增强。

统一的自回归框架:CoA将关键帧的识别和轨迹的生成统一在单一的自回归模型中,实现了端到端的训练和高效的闭环执行,并保持了可扩展(scalable)的潜力。

关键设计

为了实现轨迹自回归的想法,CoA引入了四个关键设计:

连续动作表征(ContinuousActionRepresentation):离散化的动作表征会引入量化误差,为保证轨迹的精细度,CoA采用了连续的动作表征并引入了「潜在一致性损失」(Latentconsistencyloss)。

动态停止机制(DynamicStopping):在连续动作空间中,没有传统的中止符(EOStoken)来指示序列的结束。因此,CoA设计了一种基于距离的动态停止机制,实现可变长度(variablelength)的轨迹预测。

反向时间集成(ReverseTemporalEnsemble):传统的时序集成策略基于前向时间假设,不适用于CoA的反向生成模式。CoA通过反向时序集成,进一步提高预测的稳定性。

多词元预测(Multi-tokenPrediction,MTP):动作局部依赖关系的建模可作为「全局-局部」一致性的补充。此设计仅在训练阶段作为正则化手段使用,在推理时移除,保证了效率。

实验验证

模拟环境测试

大幅超越基线:在涵盖60个任务的RLBench大规模拟基准测试中,CoA的平均成功率达到了55.2%,显著优于ACT(38.9%)和DP(32.6%)。相较于ACT,CoA在81.7%的任务中取得了更高的成功率,平均提升了16.3%。相较于DP,CoA在80.0%的任务上表现更优,平均提升为23.2%。

相关性分析:所有方法的成功率都随着物体空间分布方差的增大而下降,但CoA的下降趋势更为平缓,且其性能优势在高方差(更困难)的任务中更为明显。

空间泛化能力分析:研究者对泛化性进行了更细致的观察。以按按钮任务为案例,分别测试了「内插」(in-distribution)和「外推」(out-of-distribution)情况下各个模型的表现,结果显示,CoA在外推场景下成功率约为内插情况下的一半,但对于ACT和DP,外推任务几乎不能完成,这一定程度揭示了两种建模范式在空间泛化表现上的根本差异。

真实世界实验

研究者在一台Fetch机器人上,围绕8项厨房任务进行了部署和测试。观察来自单个RGB摄像头,策略以10Hz的频率运行,每个任务测试10次。实验结果显示CoA取得了61.3%的平均成功率,ACT成功率为46.3%,DP的成功率36.3%。这验证了CoA建模范式在真实世界中的可用性。

结论与展望

Chain-of-Action提出了一种新颖的模仿学习范式,其核心是轨迹自回归建模。通过从一个代表任务目标的「关键帧」开始,逆向生成动作序列,该方法为轨迹施加了一个强大的「全局-局部」结构约束,从而有效解决累计误差问题,提升机器人操作泛化性。全面的实验结果证明,在没有更多数据和增大模型规模的情况下,其在空间泛化能力相比传统范式取得显著提升。这说明一个合理的建模范式可以有效的释放现有数据的潜力。CoA有望为未来一代的VLA模型提供新的建模思路。

  李瀚明进一步分析,西安接近中国的几何中心,这样的地理位置飞国内任何地方都很便利。加上西安产业发达,又是旅游胜地,这些因素让西安国内客流常年处于高位,间接影响了打造国际枢纽的必要性。此外,也是因为接近国内几何中心,西安无论哪个方向的洲际航线,都得使用宽体机。二线枢纽用宽体机飞国际线,往往存在客流不足、上座率不高的情况。