问界M9自动开出车库功能的研发经历了哪些阶段?
问界M9自动开出车库功能的研发经历了环境感知、数据融合与决策、车辆执行三个核心阶段。这一功能依托华为乾崑智驾ADS系统的技术积淀,从感知层的硬件布局到决策层的算法优化,再到执行层的精准控制,形成了一套完整的技术闭环。环境感知阶段,通过4颗激光雷达、13颗车外摄像头等36个传感器构建360°感知网,实现250米内障碍物探测与恶劣天气环境适应;数据融合与决策阶段,借助GOD+PDP端到端神经网络架构,将多传感器数据转化为毫秒级驾驶指令,无需高精地图即可自主学习复杂场景;车辆执行阶段,则通过电机控制、AEB紧急制动等技术,实现地库到地面的平顺切换与小于5厘米的泊车误差,最终让自动出库功能兼具安全性与实用性。

在环境感知阶段,问界M9的硬件布局围绕“全场景覆盖”展开。4颗华为激光雷达(含1颗192线主雷达与3颗固态雷达)组成核心探测矩阵,主雷达250米的最远探测距离可精准识别远处障碍物,固态雷达则强化近距离盲区监测;13颗车外摄像头覆盖前后左右不同视角,其中前视摄像头支持车道线、交通标志的像素级识别,侧视摄像头辅助判断侧方来车;5颗毫米波雷达在雨雪雾等恶劣天气下仍能稳定探测动态目标,与激光雷达、摄像头形成互补。这套36个传感器的组合,为自动开出车库功能搭建了无死角的“环境眼睛”,确保车辆在光线昏暗、空间狭窄的地库中也能清晰感知周围环境。
数据融合与决策阶段是自动出库功能的“大脑中枢”。传感器采集的海量数据实时传输至华为自研车载计算平台,通过GOD+PDP端到端神经网络架构处理。该架构首先完成多传感器数据融合,将激光雷达的三维点云、摄像头的图像信息、毫米波雷达的距离数据整合成统一的环境模型;随后AI系统启动动态预测,基于历史数据与实时信息,预判行人、车辆等交通参与者的下一步动作;最后在毫秒级时间内生成最优驾驶指令,包括转向角度、加速力度等,且无需依赖高精地图,可自主学习地库坡道、立柱分布等个性化场景,让决策更贴合实际使用需求。
车辆执行阶段则聚焦“指令落地的精准性”。决策指令通过车身控制系统转化为具体操作:转向系统由电机精准控制角度,误差控制在±0.5度内,确保出库时沿规划路线平稳行驶;动力系统根据坡道坡度自动调节扭矩,避免地库上坡时溜车;AEB紧急制动系统在自动出库过程中保持待命,可应对突发的行人闯入等情况。针对地库到地面的场景切换,车辆能自动调整悬挂软硬与动力输出,适应路面变化;自动泊车误差小于5厘米的精度,也为自动出库后的停车位置校准提供了保障,让整个流程从启动到完成都流畅自然。
作为鸿蒙智行生态的旗舰车型,问界M9的自动开出车库功能不仅是单一技术的落地,更是“感知-决策-执行”全链路技术协同的成果。从硬件层面的多传感器布局,到软件层面的端到端算法优化,再到执行层面的精准控制,每个阶段都围绕用户实际使用场景设计,既体现了华为技术赋能的优势,也为中高端SUV的智能驾驶功能树立了新的标杆,让用户在日常用车中切实感受到科技带来的便利。
最新问答





