蔚来Nomi支持多模态交互吗?
蔚来Nomi支持多模态交互。自2024年4月蔚来NOMI GPT端云多模态大模型正式上线后,Nomi便具备了这一能力,尤其在搭载高通骁龙8295芯片与Banyan 2.0系统的2025款ES6上,其多模态交互体验更为成熟。该交互涵盖手势、语音与视线追踪三种方式,用户无需依赖单一指令形式,无论是开口下达指令、做出简单手势,还是通过视线示意,Nomi都能快速响应并执行操作,比如调节车内温度、切换音乐或开启车窗等。同时,NOMI GPT大模型还赋予了Nomi开放式问答能力,结合端云融合架构与第三方API调用,实现了蔚来产品、服务与社区的全域贯通,让交互既多元又智能。
NOMI GPT端云多模态大模型的上线时间为2024年4月12日,且针对搭载Banyan·榕智能系统的车型陆续推送升级。用户完成功能升级后,可体验到大模型百科、无限趣聊等全新交互内容。作为专为NOMI打造的大模型,其采用自研端云融合架构,能灵活调用第三方API,这一技术特性让NOMI不仅能处理基础指令,还能在开放式问答场景中展现更丰富的交互能力,比如解答用户关于车辆功能的疑问、提供生活常识科普等,实现了从“指令执行”到“智能对话”的进阶。
在硬件与系统的协同方面,2025款ES6搭载的高通骁龙8295芯片为NOMI的多模态交互提供了算力支持,配合Banyan 2.0系统,NOMI的响应速度提升了50%。这种硬件与软件的深度适配,让多模态交互的流畅度得到保障。当用户通过手势比划“调节空调温度”的动作,或用视线聚焦中控屏上的音乐图标时,NOMI能快速捕捉并识别这些非语音信号,在短时间内完成指令执行,避免了传统交互中可能出现的延迟或误判问题。
从交互场景的覆盖来看,NOMI的多模态交互贯穿了用户用车的多个环节。在日常驾驶中,用户若双手握住方向盘,可通过视线追踪功能让NOMI调整导航路线;停车休息时,能通过手势指令让NOMI打开天窗;而在与NOMI闲聊时,开放式问答能力又能让对话更具趣味性与实用性。这种全场景的交互覆盖,让NOMI从单纯的语音助手转变为用户的智能出行伙伴,进一步提升了用车体验的便捷性与智能化水平。
总体而言,蔚来NOMI的多模态交互能力是技术研发与用户需求结合的成果。从大模型的上线到硬件系统的适配,再到交互场景的拓展,每一个环节都体现了对用户体验的关注。随着技术的不断迭代,NOMI的多模态交互有望在未来覆盖更多车型,为用户带来更丰富的智能出行体验。




