
2025 年小米汽车的智能驾驶系统以Xiaomi Pilot为核心,覆盖从基础辅助到高阶领航的全场景功能,硬件与算法的深度协同成为其技术亮点。以下从技术架构、硬件配置、功能覆盖及行业争议四个维度展开分析:
一、技术架构与核心方案
小米智驾系统采用全栈自研技术路线,构建了 “感知 - 决策 - 控制” 的完整闭环:
- 算法层面:
- BEV+Transformer+OCC:通过鸟瞰图(BEV)和占用网络(OCC)实现环境建模,结合 Transformer 网络提升动态决策能力。小米自研的变焦 BEV 技术可根据场景切换输出分辨率,提升复杂路况下的感知精度。
- 端到端大模型:国内首个将端到端大模型应用于量产车型,取代传统的感知、决策、规划模块,直接从图像输入生成行驶轨迹。该模型在泊车场景中实现 5cm 级精度泊入,并支持 23km/h 巡航的代客泊车。
- 硬件分层:
- 基础版(Pro):纯视觉方案,配备 11 个高清摄像头(含前视双目)和 1 颗毫米波雷达,算力平台为 84TOPS 的英伟达 Orin 芯片。
- 高阶版(Max):在 Pro 版基础上增加 1 颗禾赛 AT128 激光雷达(128 线,探测距离 200 米),算力提升至 508TOPS(双 Orin 芯片),支持城市领航辅助驾驶(NOA)。
- 旗舰版(Ultra):2025 年新增车型,搭载Xiaomi HAD 端到端全场景智驾系统,整合神经拟态芯片 “赤兔 N1”,支持从停车位到目标停车场的无缝衔接,覆盖高速、城市道路及跨楼层泊车。
二、硬件配置与供应商
- 传感器阵列:
- 摄像头:欧菲光供应环视、DMS 摄像头,舜宇供应 ADAS 前视、侧视摄像头,豪威科技提供 CMOS 传感器。
- 激光雷达:禾赛 AT128(128 线,153 万点 / 秒),采用 “瞭望塔式” 车顶布局,风阻系数降低 4%。
- 雷达:3 颗毫米波雷达(探测距离 200 米)和 12 颗超声波雷达。
- 计算平台:
- 标准版:单 Orin 芯片(84TOPS)。
- Max/Ultra 版:双 Orin 芯片(508TOPS)+ 自研 “赤兔 N1” 神经拟态芯片(支持脉冲神经网络实时训练)。
- 供应链协同:
- 英伟达提供 Orin 芯片,黑芝麻智能参与跨域融合芯片研发,中科创达提供智能驾驶中间件。
三、功能覆盖与场景落地
- 高速场景:
- 高速 NOA:支持自动变道、匝道通行、超车避障,AEB 紧急制动可在 135km/h 时速下刹停。
- 道路大模型:实时生成道路拓扑,在无高精地图区域也能识别施工路段并规划绕行路线。
- 城市场景:
- 城市 NOA(Max/Ultra 版):2025 年 8 月实现全国范围开放,支持路口通行、环岛绕行、行人避让等功能。
- 跨场景泊车:端到端大模型支持跨楼层寻位、记忆泊车,在复杂地库可自主识别电梯厅并完成泊入。
- 安全冗余:
- 人机交互:系统在检测到风险时提前 2 秒发出接管提示,但事故案例显示该设计存在缺陷(如夜间施工路段识别不足)。
- 硬件冗余:Max/Ultra 版通过激光雷达补充视觉方案的不足,尤其在逆光、低光照场景提升感知可靠性。
四、行业争议与用户风险
- 事故暴露的问题:
- 硬件减配:标准版 SU7(Pro 版)未配备激光雷达,纯视觉方案在夜间施工路段对临时路障识别失效,导致 2025 年 3 月安徽高速碰撞事故。
- 责任划分:尽管小米宣传 “高阶智驾”,但根据应急管理部声明,市售车型仍属于 L2 级辅助驾驶,事故责任由驾驶员承担。
- 技术与宣传的落差:
- 用户认知偏差:车企营销中使用 “零接管”“L2.999 级” 等模糊表述,导致用户对智驾能力过度信任。
- 算法局限性:在极端场景(如异形护栏、反光物体)下,系统仍可能出现误判,需依赖驾驶员紧急接管。
总结:技术亮点与挑战并存
小米智驾系统凭借全栈自研算法和硬件协同,在感知精度、场景覆盖等方面达到行业第一梯队水平,尤其在端到端大模型和泊车功能上具有差异化优势。然而,事故案例和法规限制暴露了技术成熟度与用户预期的矛盾。未来,小米需在提升算法鲁棒性、强化安全冗余的同时,加强用户教育,避免因宣传与实际功能脱节引发信任危机。
