智东西
作者 许丽思
编辑 漠影
智东西1月8日报道,今天,在阿里云通义智能硬件展上,阿里云发布多模态交互开发套件,该套件集成了千问、万相、百聆三款通义基础大模型,并预置十多款生活休闲、工作效率等领域的Agent和MCP工具。
这款多模态交互开发套件不仅能听、会看,还能思考并且与物理世界交互,可应用于AI眼镜、学习机、陪伴玩具、智能机器人等硬件设备。
一、适配超30款主流架构终端芯片平台,预置十MCP工具和Agent
在芯片层面,阿里云多模态交互开发套件适配了30多款主流ARM、RISC-V和MIPS架构终端芯片平台,满足市面上绝大多数硬件设备的快速接入需求。未来,通义大模型还将与玄铁RISC-V实现软硬全链路的协同优化,实现通义大模型家族在RISC-V架构上的高效部署和推理性能。
在模型优化层面,除通义模型家族外,阿里云还针对大量多模态交互场景进行分析,推出适合AI硬件交互的专有模型,全面支持全双工语音、视频、图文等交互方式,端到端语音交互时延低至1秒,视频交互时延低至1.5秒。
此外,该套件预置十多款MCP工具和Agent,覆盖生活、工作、娱乐、教育等多个场景,例如,基于预置的出行规划Agent,用户可直接调用路线规划、旅行攻略、吃喝玩乐探索等能力。
该套件还接入了阿里云百炼平台生态,用户不仅可以添加其他开发者提供的MCP和Agent模板,还能通过 A2A协议兼容三方Agent,极大程度地扩展了应用的能力边界,帮助企业灵活搭建业务场景。
二、多家具身智能企业亮相,阿里云与乐聚机器人企业达成全栈AI合作
同时,阿里云还展示了面向智能穿戴设备、陪伴机器人、具身智能等领域的解决方案。
例如,在AI眼镜领域,基于千问VL、百聆CosyVoice等模型,阿里云打造了感知层、规划层、执行层以及长期记忆的完整交互链路,可一站式实现同声传译、拍照翻译、多模态备忘录、录音转写功能,有效解决交互不自然、回答准确率低的难题。
面向家庭陪伴机器人场景,基于千问模型和多模态交互套件,阿里云推出的解决方案不仅可实时监测异常状况,并及时告警信息推送,用户还能基于关键词查找、定位视频,与机器人进行对话交互和控制设备等。
展会现场,出现了多家具身智能厂商包括魔法原子、灵心巧手、跨维智能、原力无限等的身影,展出了多款人形机器人、四足机器人、灵巧手产品。人形机器人现场弹钢琴、做咖啡,人气爆棚。
另外,阿里云还宣布与乐聚机器人达成全栈AI合作,双方将基于阿里云算力、AI平台、千问模型,共同开展人形机器人训练场合作,以及探索基于千问模型的具身智能联合解决方案和人形机器人产品的开发。
目前,乐聚新版展厅机器人已接入千问模型。接入千问后,机器人在语音交互、知识库问答、实时对话等场景下,响应更快、答案更准、互动更自然。
结语:推动AI硬件告别“单感官”时代
大模型已开始具备理解、感知以及和物理世界交互的能力,越来越多的硬件和终端设备厂商开始通过接入大模型来提升交互体验。然而,仅靠基础大模型仍无法同时满足硬件设备对低成本、低时延、功能丰富和高质量效果的需求。
而阿里云多模态交互开发套件的出现,集成了千问、万相、百聆三款通义基础大模型,使硬件厂商和开发者能够通过套件快速为产品赋予高阶智能,告别了“单感官”时代,极大地缩短了开发周期,降低了开发成本。基于阿里云的这款开发套件,未来AI硬件有望出现更多的创新型解决方案。