11 月 7 日晚间消息,新浪科技获悉,阿里巴巴多个团队正联合研发由数字人全面接管的终端交互引擎。预计第一款“数字人 + 终端”产品将在 2023 年一季度让用户体验。据介绍,该项目集合达摩院 NLP,语音,视觉,3D 构建驱动及大模型领域团队,和天猫精灵 AliGenie 交互系统专家。
就像手指触屏奠定智能手机交互,大模型数字人将接管未来智能交互。2022 年开始,达摩院多模态大模型开始应用于天猫精灵语音搜索与百科场景。各方目前将合作场景推向 AliGenie 交互的系统层和用户感知层。
当前,数字人领域正由喧嚣转向理性。虽然高精度高颜值的人偶形象不断出现,但绝大部分场景缺乏与用户的持续性、个性化互动,因而商业化规模有限。如只能在短视频和动画中存在的虚拟偶像,或只在单一设备或界面中面向大众支持问答的虚拟员工,这些形态缺乏大模型训练和大规模交互,无法个性化学习升级,用户感受就像“没有灵魂”。
刚结束的云栖大会上,阿里巴巴集团研究员李小龙透露了达摩院积累的包括多模态大模型、语音、自然语言、3D 构建驱动、各个领域近两年百项专利与顶会论文,通过将这些成果,在诸多交互场景验证,一个多模态大模型为基础的数字人的引擎已初显雏形。
天猫精灵产品规划负责人卢勇介绍,接入 AliGenie 系统的终端已覆盖 4000 多万家庭、包含 1600 多个品牌的 4.6 亿已接入产品,能让数字人在可持续、大规模、组合式的场景与用户交互。AliGenie 此前公布,仅智能音箱产品每月交互 80 亿次以上,70% 是主动型服务。许多消费硬件领域厂商,也迫切希望有超出单一连接、单一设备对话的智能体验。