
Meta V-JEPA2模型
开启视频理解与机器人控制新纪元 V-JEPA2是由Meta推出的一款基于视频数据训练的世界模型,能够实现对物理世界的理解、预测和规划,并支持零样本机器人控制。
为人形机器人注入“物理常识”的通用大脑 宇树开源的UnifoLM-VLA-0是一个专为通用人形机器人设计的视觉-语言-动作基础模型,它通过在真实机器人操作数据上进行预训练,使模型获得了对物理世界交互规律的基本理解,标志着机器人大脑从“图文理解”迈向具备“物理常识”的具身智能。







