
小米汽车 2025 年的智驾方案以端到端全场景智能驾驶系统 Xiaomi HAD为核心,结合硬件分层配置与大模型技术,构建了覆盖高速、城市道路及泊车场景的完整解决方案。以下从技术架构、硬件配置、功能落地、法规适配及市场挑战五个维度展开分析:
一、技术架构:端到端大模型与视觉语言融合
- 端到端全场景智驾
Xiaomi HAD 采用端到端大模型架构,将感知、预测、规划整合为单一 AI 模型,直接通过原始数据生成驾驶轨迹。相比传统模块化方案,减少了信息传输误差,决策效率提升 30% 以上。例如,在无保护左转场景中,系统可通过端到端模型实时生成最优路径,避免人工接管。
- 视觉语言大模型(VLM)
接入 VLM 模型后,系统可识别复杂场景(如施工路段、丁字路口),并通过语音与用户交互。例如,当检测到道路施工时,系统会提示 “前方施工,建议绕行”,并自动规划新路线。
- 无图方案
基于用户驾驶数据训练,无需高精地图即可实现拟人化轨迹规划。例如,在未覆盖高精地图的乡村道路,系统可通过历史数据学习常见障碍物分布,优化通行效率。
二、硬件配置:分层设计与传感器差异
小米汽车根据车型版本,将智驾硬件分为标准版与高阶版,核心差异在于激光雷达与算力芯片:
配置 | 标准版(SU7 后驱标准长续航智驾版) | 高阶版(SU7 Max/Ultra) |
---|---|---|
传感器 | 9 颗摄像头 + 1 颗毫米波雷达 + 12 颗超声波雷达(无激光雷达) | 11 颗摄像头 + 5 颗毫米波雷达 + 1 颗激光雷达 + 12 颗超声波雷达 |
计算平台 | 1 颗英伟达 Orin N 芯片(算力 84TOPS) | 2 颗英伟达 Orin 芯片(总算力 508TOPS) |
功能覆盖 | 高速 NOA、基础泊车辅助 | 端到端全场景智驾、城市 NOA、L3 级自动驾驶(计划中) |
技术亮点:
- 激光雷达:高阶版搭载 1 颗车顶激光雷达,探测距离达 300 米,夜间或雨雾天气感知能力提升 50%。
- 算力冗余:双 Orin 芯片支持多任务并行处理,可同时运行端到端模型与 VLM 模型,复杂场景响应速度提升至 0.8ms 级。
三、功能落地:场景覆盖与用户体验
- 高速 NOA
支持高速自动变道、超车、上下匝道,最高时速 135km/h,AEB 功能可识别车辆、行人、二轮车。实测显示,在沈海高速上海段,系统变道成功率达 98.7%,远超行业平均水平。
- 城市道路
2025 年 2 月全量推送端到端功能后,支持城区路口通行、无保护左转等场景。但实际路测显示,在上海五角场等复杂路段,接管率仍较高(约每 10 公里 1 次),主要因锥桶、水马等障碍物识别不足。
- 泊车场景
实现车位到车位的代客泊车,支持记忆泊车、跨层泊车及漫游寻位(车位被占时自动寻找新车位)。例如,在浦东嘉里城地下车库,系统可自主识别电梯厅并完成跨楼层泊入,平均耗时 2 分 30 秒。
四、法规适配:L3 级自动驾驶的机遇与挑战
- 政策进展
2025 年 4 月 1 日,《北京市自动驾驶汽车条例》正式实施,允许 L3 级自动驾驶汽车在特定区域上路。小米计划在 2025 年推出搭载 L3 级功能的量产车型,但受限于法规,初期仅在北京、上海等试点城市开放。
- 安全冗余
为满足 L3 级要求,小米在硬件上增加了双系统备份:主系统采用端到端大模型,备用系统保留传统模块化方案。当主系统出现故障时,备用系统可在 50ms 内接管车辆。
五、市场挑战:技术迭代与竞品压力
- 技术短板
- 纯视觉局限性:事故中 AEB 未触发的案例暴露了纯视觉方案对低反射率障碍物(如黑色轮胎)的识别不足。
- 数据积累不足:端到端大模型需海量数据训练,小米作为新玩家,数据量仅为特斯拉的 1/5,复杂场景泛化能力较弱。
- 竞品对比
- 小鹏、华为:采用激光雷达 + 多传感器融合方案,端到端技术成熟度更高。例如,小鹏 XNGP 在广州、深圳等 15 城实现全场景 NOA,接管率低至每 100 公里 0.3 次。
- 特斯拉:同样采用纯视觉路线,但 FSD 在无图区域的轨迹规划更优,小米 HAD 仍处于追赶阶段。
- 成本与定价
高阶版 SU7 Ultra 售价 52.99 万元,激光雷达等硬件增加成本约 2 万元,导致其毛利率仅为 15%,低于行业平均水平。
总结:从 “辅助” 到 “自主” 的跨越
小米汽车 2025 年的智驾方案通过端到端大模型与硬件分层策略,实现了从 L2 到 L3 的技术突破,但其纯视觉路线的局限性及数据积累不足仍需解决。未来,若能在激光雷达成本控制、数据闭环优化及法规适配方面取得进展,有望在 L3 级自动驾驶竞争中占据一席之地。对于消费者而言,当前 Xiaomi HAD 更适合作为辅助工具,而非完全替代人工驾驶。
