你的下一个“家庭成员”来了!自变量机器人宣布下月机器人将正式进家“上岗”

AI视界(以下内容由AI生成,仅供参考)

  • 关键词
  • 简介
  • 重点
  • 分析
  • 猜你
    想问

深圳新闻网2026年4月22日讯(记者 刘惠敏)4月21日,自变量机器人创始人兼CEO王潜在公司发布会上宣布推出新一代机器人进家庭计划:一个月后,新一代机器人将搭载自研具身智能基础模型WALL-B进入真实家庭“上岗”。据悉,该模型是全球首个基于世界统一模型架构(World Unified Model,WUM) 的具身智能基础模型。

自变量机器人创始人兼CEO王潜在发布会现场。

机器人进入家庭 难在哪里?

“早上七点,闹钟响了。拖鞋不知踢到哪里,厨房的碗还没洗,孩子的书包扔在地上,猫打翻了一杯水。”发布会现场,王潜描述了这样一个家庭日常场景。他表示,当前全球范围内,没有任何一台机器人可脱离遥控操作,在无人干预的情况下独立完成上述场景中的综合整理任务。

舞台上的后空翻、写毛笔字等演示虽视觉冲击力强,但本质是预设轨迹的“命令行机器人”。工厂中的工业机器人同样不构成可比案例,这是由于工厂环境下动作可重复且条件相同;而在家庭中,一万个动作每个可能只做一次,环境条件存在差异。王潜指出:“双足、灵巧手、力控关节都很好,硬件已经到位,但大脑没有跟上。家庭环境中的每一秒都可能出现全新事件,现有技术无法处理这种随机性和碎片化。”

深企打造机器人“原生大脑”

和之前参加北京亦庄人形机器人半程马拉松的众多专注于人形机器人硬件的公司不同,成立于深圳的自变量机器人以具身智能模型起家,致力于为机器人构建“大脑”。2024年底,自变量机器人发布基于VLA(视觉-语言-动作)架构的第一代具身基础模型WALL-A;2025年9月,同样思路架构下的轻量化模型版本WALL-OSS正式开源。

今年3月,自变量机器人与58同城合作,将搭载WALL-AS模型的机器人送入真实家庭,与保洁阿姨协同作业,全球首次让人形机器人进入家庭,并服务人类复杂的家居生活。正是这些在真实场景的部署,让团队看到了VLA架构的“天花板”。

自变量机器人联合创始人兼CTO王昊解释,VLA 架构本质上是三个独立模块的拼接:视觉模块负责识别物体,语言模块理解指令,动作模块生成轨迹。数据在模块间传递会产生损耗和延迟,且只能模仿训练轨迹,无法真正理解物理规律。“它不理解杯子为什么会掉,不理解为什么盘子悬在桌边需要推回去。它只是在重复见过的东西。”

自变量机器人联合创始人兼CTO王昊介绍WALL-B模型。

WALL-B正是对这一困局的回应。它基于世界统一模型架构(WUM),将视觉、语言、动作、物理预测等所有能力放在同一个网络中从零开始联合训练,消除了模块边界。基于这一架构,WALL-B实现了三项核心技术特征:原生多模态,能同时处理视觉、听觉、触觉等数据并具备“本体感”;理解重力、惯性等物理规律,实现零样本泛化;在任务失败后可自主调整策略并更新模型参数,实现自我进化。

新一代机器人下月上岗 未来机器人进家能做什么?

当前,自变量机器人团队已进入数百个志愿者家庭采集训练数据,让模型学会在不确定环境中生存。在商业化落地方面,自变量的时间表也已经明确:35天后,新一代搭载WALL-B并根据家居环境进行硬件升级的机器人将入驻首批用户的家庭。从即日起,自变量开始招募首批进入家庭机器人的“家长”,用户可通过官方渠道提交申请。

谈及进入用户家庭后模型的预期表现,王潜在接受记者采访时表示,机器人理论上在进入家庭时就能完成所有物理上可实现的任务,尽管某些复杂工具或狭窄空间可能受限。

王昊也在采访中表示,过去从来没有机器人能同时做好多件事情,所以大家才会觉得机器人离家庭还很远。实际上,当机器人能集中处理摆鞋、叠衣、铲猫砂这些日常琐事时,其满足的就是人们生活中一个巨大的真实需求。“我们要做的不是让机器人扮演专职保姆,而是尽可能地让机器人成为一个能覆盖各种长尾任务的家庭助手。”

王潜指出,当前模型仍处于“实习生”阶段,会犯错,需要远程协助,有时可能把拖鞋放到厨房、擦桌子擦到一半停下来“思考”,但其能够实现24小时不间断工作,且每工作一天都会因新数据的产生而变得更“聪明”。

“尽管进入家庭的机器人现在还很笨,走得很慢,经常犯错,但人类从婴儿时期迈出的第一步也是如此。每一个伟大的旅程,都是从踉踉跄跄的第一步开始的。”王潜这样说道。

(本文图片由受访单位提供)

记者:刘惠敏 审核:叶梅 校对:马丹 责任编辑:战旗

AI视界(以下内容由AI生成,仅供参考)

关键词

简介

重点

分析

猜你想问