
5月9日,在湖北光谷举办的动作大模型发布暨产品技术分享会上,北京大学武汉人工智能研究院与北京虚拟动点科技联合发布了人形机器人动作大模型。这一创新成果能够通过学习文字、视频、音频及动作捕捉数据生成相应的动作指令,从而大幅简化了以往需要工程师编写复杂代码才能实现的简单动作。
新发布的动作大模型由MotionMaster虚拟动作生成器和UniAct真机执行引擎两部分组成。前者负责将高阶语义和多模态输入转化为虚拟动作;后者则确保这些虚拟动作可以在真实的机器人上准确执行。
据湖北人形机器人创新中心首席运营官刘传厚介绍,该模型解决了不同品牌间数据互不兼容的问题,降低了开发成本和时间周期,使机器人训练进入‘快车道’,加速其从实验室向实际应用转化的过程。
此外,湖北省还计划为这一技术提供包括数据支持在内的全链条验证环境,并促进产学研合作以加快技术创新速度及其商业化进程。会议期间,多家企业就深化合作达成协议,共同推动湖北成为具身智能领域的重要基地之一。返回搜狐,查看更多