
5月9日,湖北人形机器人创新中心在光谷举办了一场关于人形机器人动作大模型的技术分享会。会上,北京大学武汉人工智能研究院与北京虚拟动点科技共同发布了这一突破性成果。
该模型由MotionMaster虚拟动作生成器和UniAct真机执行引擎两大核心模块构成。前者能够将高阶语义、视频等输入转化为虚拟动作,后者则确保这些动作精准适配真实机器人硬件。
据湖北人形机器人创新中心首席运营官刘传厚介绍,通过标准化数据处理流程,新模型生成的虚拟动作可以跨品牌通用,解决了以往各品牌机器人数据互不兼容的问题,降低了开发成本并缩短了周期。
借助多模态数据的学习能力,机器人可以直接生成对应的动作指令,极大地提升了训练效率。此外,为保障模型落地效果,创新中心还构建了一套全链条验证体系,涵盖从数据采集到场景应用等多个环节。
活动当天,潜空间与多家企业签署了生态合作协议;湖北人形机器人创新中心也与数家企业达成战略合作,旨在围绕数据服务、模型训练等方面展开深度合作,共同推动具身智能产业的发展。返回搜狐,查看更多