Meta 收购 ARI,剑指 AGI 物理训练,完善全身人形机器人控制布局

Meta 收购 ARI,剑指 AGI 物理训练,完善全身人形机器人控制布局

近日,Meta 宣布收购专注于人形机器人物理交互与全身运动控制的初创公司 **ARI**(Agile Robotics Intelligence)。这一动作被业内视为 Meta 在通往通用人工智能(AGI)道路上的一次关键落子——不再满足于虚拟世界的大语言模型与多模态感知,而是将触角正式伸向物理世界的“具身智能”训练。

# 物理世界:AGI 的“最后一公里”训练场

当前主流 AGI 路径依赖海量文本与图像数据,但缺乏对物理规律(如力、平衡、碰撞)的直接体验。Meta 首席科学家杨立昆多次强调,**真正的通用智能必须能在物理世界中行动并学习**。收购 ARI 的核心逻辑,正是为 AI 系统提供“肉身”——通过全身人形机器人平台,让模型在真实重力环境下完成行走、抓取、避障等任务,从而习得因果推理与空间物理直觉。这与 Meta 此前推出的 **Habitat 3.0** 仿真平台形成互补:仿真用于低成本预训练,ARI 的实体机器人则用于高保真度微调与验证。

# 全身控制:从“机械”到“类人”的跨越

人形机器人的难点不仅在于单关节精度,更在于 **全身协调的动态平衡**。ARI 的核心技术栈包含三部分:**实时运动重规划引擎**(可应对突发外力扰动)、**柔性关节阻抗控制**(模拟人类肌肉的柔顺性)以及 **多模态触觉反馈融合**(足底压力+手部纹理感知)。这些技术恰好补足了 Meta 在“全身运动基元”上的短板——此前 Meta 的机器人研究多集中于上半身抓取或导航,缺乏完整的人体运动链控制能力。收购后,Meta 有望将 ARI 的控制器与自家 **Ego-Exo 4D** 人体运动数据集结合,构建从感知到执行的全闭环系统。

# 行业影响:巨头竞赛进入“物理层”

此次收购标志着科技巨头在 AGI 领域的竞争已从“算力堆砌”转向“物理交互能力”的争夺。谷歌旗下的 DeepMind 早已通过“虚拟到现实”迁移训练机器人,而特斯拉的 Optimus 也在不断迭代全身控制。Meta 的差异化在于 **开放生态**:其公开的 **Habitat 平台** 和 **PyTorch 框架** 可能将 ARI 的控制算法标准化,吸引第三方开发者加入人形机器人训练任务。若成功,Meta 将不仅拥有社交网络的数据护城河,更可能建立 **物理世界 AI 训练的基础设施**——从仿真沙盒到真实机器人,覆盖 AGI 所需的全部数据维度。

当然,挑战依然存在:人形机器人的硬件成本、能耗与长期可靠性仍是规模化瓶颈。但收购 ARI 表明,Meta 已经选择了一条更“重”但更接近智能本质的路径。

相关文章