AutoDriveRelated-WA
概述
自动驾驶技术架构,强调其作为“大脑与神经网络”的角色,需整合感知、决策、执行和云端协同等多个环节。目标是从实验室走向实际道路,支撑车辆实现安全、自主的驾驶。架构分为多个层级:车端硬件、车载计算平台、执行硬件、云端训练、决策规划、功能安全、车路协同等,最终形成一个闭环系统。
车端硬件
车端硬件是自动驾驶的第一步,负责“看得见、摸得着”环境与自身状态。分为三大子系统:
- 外部环境感知:依赖多传感器融合方案,以应对不同场景的盲点。
- 摄像头:通过光学镜头和图像传感器捕捉道路、交通标志、行人等二维信息,供视觉算法处理。
- 毫米波雷达:在雨雾等恶劣天气下稳定测量目标距离和速度。
- 激光雷达:发射数十万到数百万束激光脉冲,生成高精度三维点云,用于重建物体三维轮廓。
- 超声波雷达:适用于低速泊车和近距离避障,提供米级精细探测。
- 传感器融合:不同传感器(如摄像头、雷达)互补盲点,构建全天候环境模型。
- 车辆状态感知:实时监测车辆动态参数。
- 转向角度传感器:检测方向盘角度变化,判定转向意图。
- 轮速传感器:基于车轮转速差异计算车速和滑移率,为ABS和TCS系统提供数据。
- 惯性测量单元(IMU):结合GNSS/RTK定位,通过扩展卡尔曼滤波融合高频惯性数据和低频卫星数据,实现厘米级连续定位(即使在隧道等信号弱区)。
- 车内驾驶员监测系统(DMS):为L2/L3级辅助驾驶提供安全保障。
- 组成:红外摄像头、普通摄像头、压力/生物传感器。
- 算法:面部与眼球关键点检测、头部姿态估计、眨眼频率统计,评估驾驶员注意力和疲劳状态。
- 功能:在注意力分散或双手离开方向盘时触发警示或接管机制,确保人车协同安全。
车载计算平台
车载计算平台是数据处理的“中枢神经”,负责实时汇聚传感器数据,进行推理与决策。
- 域控制器(Domain Controller):核心组件,集成数据处理、推理计算、子系统驱动(人机交互、T-Box、线控底盘)。
- 核心组成:
- 计算SoC(System on Chip):集成CPU、GPU和NPU(神经网络处理单元),支持INT8/FP16量化推理,平衡算力与功耗。算力需求:L2级50–200 TOPS,L3级≥200 TOPS,L4级≥1000 TOPS,L5级≥2000 TOPS。强调算力优化优于盲目追求峰值。
- 内存与存储子系统:处理海量数据流。
- 电源管理与散热设计:确保稳定运行。
- 接口设计:支持多种总线标准,如GMSL/FMC+CSI-2(高速摄像头输入)、IEEE 802.3 100Base-T1/1GBase-T1(车载以太网)、CANFD(控制总线)、SPI/UART/I²C(低速接口),以及LIN总线/FlexRay(兼容执行器和车身模块)。
- 操作系统(OS):选用ISO 26262 ASILD级安全标准的RTOS或微内核系统,如Classic/Adaptive AUTOSAR、QNX、嵌入式Linux车规版或华为AOS/VOS。特性包括:内核级安全隔离、优先级抢占式调度、时间分区技术,确保高优先级任务(如碰撞预警)毫秒级响应,支持多任务并行、数据加密和OTA安全升级。
- 核心组成:
边缘推理与执行硬件
在计算平台推理完成后,输出结果通过执行硬件落实控制。
- 输出结果:
- 实时轨迹生成:驱动转向、加减速和悬架调节。
- 场景理解与预测:用于人机交互和冗余安全校验。
- 执行机构:
- 线控转向(SBW):替代机械连杆,电机直接驱动转向总成,实现可编程反馈和自适应助力比调整。
- 线控制动(EBB/EHB):电子控制液压或电机制动,支持四轮独立制动,提升湿滑路面和急停安全性。
- 线控驱动:针对电动/混动平台,通过电机扭矩分配实现精准驱动。
- 智能悬架:动态调节阻尼和高度,平衡舒适性与操控稳定。
- 控制机制:配备反馈传感器(如转向角度编码器、制动压力传感器),形成闭环控制。结合模型预测控制(MPC)或自抗扰控制(ADRC)算法,实时修正轨迹偏差,应对路面扰动和负载变化。
云端训练与车云闭环
车端推理不足以处理长尾场景(Corner Case),依赖云端进行大规模训练和验证。
- 训练流程:
- 数据采集:要求规模性(千万公里级真实数据+百亿级仿真数据)、准确性(多级标注和一致性管控)、多样性(覆盖不同道路、气候、交通习惯)。
- 标注质检:确保数据质量。
- 仿真合成:生成复杂场景数据。
- 分布式训练:使用超算集群和强化学习优化决策策略,结合大模型架构。
- 轻量化部署:通过剪枝、量化、蒸馏技术生成适配车载算力的轻量模型。
- 验证与迭代:
- 多层次仿真体系:包括场景回放测试和对抗性测试,验证极端工况下的鲁棒性。
- OTA更新:将成熟模型下发车端。
- 影子模式:在真实路况下采集数据,用于后续迭代,形成“车云协同”闭环。
智能决策与行为规划
决策规划是自动驾驶的“大脑”,负责从感知到执行的中间环节,确保行为类似人类驾驶。
- 策略规划(Behavior Planning):高层决策输出驾驶动作(如“超车”或“减速进匝道”)。
- 方法:状态机(Finite State Machine)、规则树(Decision Tree)、强化学习策略网络(Policy Network)。
- 进阶技术:意图识别模块预判他车行为(如前车变道、行人穿越),Transformer模型预测多目标意图并计算行为得分。
- 路径规划(Path Planning):基于策略生成平滑可行路径。
- 方法:混合A*算法、贝塞尔曲线、样条曲线(Spline)、状态采样(RRT)。
- 约束:满足车辆动力学(最大转向角、最小转弯半径、最大横向加速度),兼顾舒适性(避免急转弯或颠簸)。
- 轨迹控制(Trajectory Control):将路径转换为控制命令(如速度、方向盘转角)。
- 方法:PID控制、前馈控制(Feed-forward)、模型预测控制(MPC)。MPC将控制问题转化为带约束优化问题,预测未来响应并输出最优序列。
- 协同预测:在复杂场景(如多车汇流),使用多主体博弈模型(Game-theoretic Planning)协同预测他车轨迹,提升决策鲁棒性。
功能安全与网络安全
自动驾驶涉及人身安全,需嵌入严格的安全机制。
- 功能安全:
- ISO 26262标准:划分ASIL等级(A-D),D级最高(适用于转向/制动等关键环节)。
- HARA(Hazard Analysis and Risk Assessment):识别潜在危险事件,设计冗余方案(如线控制动双通道:主通道工作,副通道紧急备份)。
- 故障注入机制:模拟软硬件故障,检验应急响应(Fail Operational原则:部分失效时保障基本功能)。
- 网络安全:
- ISO/SAE 21434标准:构建多层架构。
- 车载以太网防火墙(Firewall)和入侵检测系统(IDS):隔离外部通信(如T-Box)与核心控制器。
- 端到端加密:采用TLS/SSL或DTLS,数字签名和证书验证数据完整性和来源。
- 安全启动(Secure Boot)和安全执行环境(TEE):启动时验证软件完整性,防篡改。
- ISO/SAE 21434标准:构建多层架构。
车路协同与系统进化
从“单车智能”向“车路协同”演进,融入智能交通系统。
- V2X技术:
- 场景:V2I(车与路侧设施)、V2V(车与车)、V2N(车与云)、V2P(车与行人)。
- 应用:V2I提前获知红绿灯变化调整车速,减少急刹;V2V广播事故警告避让。
- 通信基础:
- C-V2X技术:基于蜂窝网络,包括PC5直连(低延迟场景,如紧急避让)和Uu网络通信(海量数据交换,如拥堵广播)。
- 5G-V2X优势:延迟缩短至1–5毫秒,支持高速协同。
- 系统架构:
- “车-路-云”三层协同:城市交通管理中心处理拥堵预测、绿波带控制;边缘计算节点处理路口信号配时、轨迹融合。
- 数字孪生系统:实时建模虚拟交通世界(车辆轨迹、红绿灯配时、交通流),服务于规划、应急管理和事故追溯。
自动驾驶是系统工程的全方位突破,依赖多技术层级的协调(感知、决策、执行、云端、安全、协同)。未来演进方向包括算法大模型、芯片算力提升和车路一体化,目标是从“辅助驾驶”迈向“无人化运营”。成功关键不在于技术堆砌,而在于系统稳定性、可控性和协同性。最终愿景是构建“聪明的交通”,实现高效、安全、绿色的出行新时代。
- 核心人物:华为智能汽车解决方案BU CEO靳玉志,分享华为汽车业务进展及技术观点。
- 时间背景:访谈发生于华为ADS 4.0即将大规模上车之际(2024年)。
华为自动驾驶阶段性成就
靳玉志公布截至2024年7月的关键数据,体现华为在智驾领域的领先地位:
- 乾崑智驾搭载量:100万辆(截至2024年7月)。
- 激光雷达出货量:超过100万台(全球最大激光雷达供应商之一)。
- 辅助驾驶累计里程:40亿公里(验证系统可靠性)。
- 合作车型规模:截至2024年8月底,共有28款搭载华为技术的车型上市,涵盖品牌包括:
- 华为自有“界”系列(如问界、尊界)。
- 合作车企:阿维塔、深蓝、岚图、猛士、传祺、方程豹。
- 国际品牌:奥迪(体现全球化布局)。
华为的长期主义战略
- 投资历程:华为车BU自2014年开始投入,十年间持续投入研发资源,近期实现当期盈利。
- 盈利逻辑:
- 不急于制定商业化目标,避免因短期利益损害技术积累。
- 靳玉志观点:只盯着商业化会适得其反;坚持技术研发与用户需求满足,终将实现可持续盈利(当期盈利后,目标转向累计盈利)。
- 战略本质:技术优先于商业化,确保系统长期竞争力。
自动驾驶技术路线之争:VLA vs WA
靳玉志对比两种主流技术路径,阐明华为选择WA(World Action)的原因:
- VLA(感知语言行为模型):
- 核心逻辑:利用成熟的语言大模型(如OpenAI),将视频数据转化为语言token训练,再生成控制指令。
- 行业现状:部分头部车企采用此路径,实现辅助驾驶能力快速迭代。
- 华为批判:路径“看似取巧”,但非终极方案——依赖语言转换会引入信息损失和延迟,无法真正实现自动驾驶。
- WA(世界行为模型):
- 核心逻辑:直接通过多模态输入(视觉、声音、触觉等)生成控制指令,省去语言转换环节。
- 华为优势:已基于WA架构推出WEWA模型(云端世界引擎+世界行为模型),将于ADS 4.0部署。
- 技术挑战:当前难度更高,但靳玉志认为WA能实现“真正的自动驾驶”。
- 关键洞见:WA代表“端到端控制”,直接连接感知与执行,减少中间环节的误差。
辅助驾驶商业模式与收费合理性
靳玉志回应“免费辅助驾驶”争议,强调收费的必然性:
- 免费本质批判:
- 不存在真正免费:免费策略实为“支付转移”(如车价包含成本、限时免费、或牺牲用户体验)。
- 风险提示:部分车企以免费名义将用户当作“实验品”,损害安全性与体验。
- 收费合理性论证:
- 持续投入需求:辅助驾驶需全生命周期维护(迭代、OTA升级、硬件兼容),例如华为从ADS 1.0到4.0的持续升级。
- 用户价值:华为采用“生命周期管理”理念,确保硬件长期兼容(如早期用户设备仍可升级),折算后成本更低。
- 商业回报:收费支撑研发投入,形成“越用越优”的正循环。
- 全栈模式优势:
- 鸿蒙座舱与乾崑智驾均采用软硬件耦合设计,避免解耦导致的体验下降和维护难题。
- 对比行业:部分车企为降本解耦软硬件,但牺牲长期用户体验。
激光雷达配置争议的回应
针对“增加激光雷达为溢价”的质疑,靳玉志从安全角度辩护:
- 配置示例:尊界S800搭载前向+双侧向+后向固态激光雷达。
- 安全驱动逻辑:
- 后向雷达必要性:摄像头无法识别未知障碍物(如墙面水管、农田坑洼),激光雷达提供厘米级精度和深度信息,避免泊车事故。
- 用户场景导向:配置基于真实需求(如农村复杂路况),非刻意堆料。
- 核心理念:“零伤亡事故”为目标,安全投入优先于成本考量。
未来规划与技术愿景
华为公布明确的自动驾驶与智能座舱发展路线图:
- 辅助驾驶演进:
- 2026年:实现高速L3能力(有条件自动驾驶)+城区L4试点。
- 2027年:无人干线物流试点+城区L4规模化商用。
- 2028年:无人干线物流规模化商用。
- 智能座舱方向:
- 鸿蒙座舱进化为“数字保姆”,集成AI Agent(智能代理)提供主动服务。
- 目标:打通应用生态与硬件设备,实现跨场景协同。
关键问答实录摘要
访谈中靳玉志回应核心问题,体现华为技术自信与行业洞察:
- VLA vs WA路径选择:
- 问:VLA能否实现L4?
- 答:华为拒绝VLA,因其依赖语言转换;WA虽难,但直达自动驾驶本质。
- L3/L4玩家数量预测:
- 答:最终存活企业极少(类比具身智能行业洗牌),因数据驱动依赖算力、算法和公共平台(单独投入不经济)。
- 车型匹配周期:
- 答:华为最快6-9个月完成一款车型的智驾系统匹配。
- 定价与竞争:
- 问:华为7万元定价是否高于友商(如5万元)?
- 答:定价反映价值(持续迭代成本),免费策略不可持续;用户为“常用常新”体验付费。
华为在自动驾驶领域的三大支柱:
- 技术领先:WA路径选择体现“第一性原理”思维,直击自动驾驶核心挑战。
- 商业理性:批判免费模式,倡导可持续收费支撑全生命周期创新。
- 生态布局:从激光雷达硬件到云端训练(WEWA),构建闭环能力。
华为的长期主义与全栈模式是其实现“零伤亡”愿景的基石,未来目标(2026-2028年L3/L4商用)彰显技术自信。靳玉志的访谈为行业提供了关键洞见:自动驾驶成功依赖技术深度而非短期商业化,安全与用户体验不可妥协。
WA(World Action)中文译为“世界行为模型”,是一种端到端(end-to-end)的自动驾驶决策控制框架。其核心思想是:直接从多模态传感器输入(如视觉、声音、触觉等)生成车辆控制行为(action),省去中间的语言转换步骤。文档中,靳玉志将WA描述为“通过vision这样的信息输入控车的大模型,而无需把各种各样的信息转成语言,再通过语言大模型来控制车”。这里的vision代表广义感知输入,可能包括摄像头图像、激光雷达点云、麦克风音频等。
行为模型(Behavior Model)指系统从感知数据直接映射到控制指令的能力,强调“感知-行为”的直接性。这与端到端学习(end-to-end learning)概念类似,例如框架可能使用端到端网络,避免了传统模块化流水线(如感知-规划-控制分离)的延迟和误差。
WA的本质是构建一个“世界模型”(World Model),能理解和预测环境动态(如车辆、行人运动),并据此输出实时控制。华为的WEWA模型扩展了这一概念,整合了云端引擎进行大规模数据训练和仿真。
WA的技术架构基于深度学习和大模型技术,分为输入层、处理层和输出层。文档指出,WA是“直接通过行为端控车”,处理过程不依赖语言token转换。以下是详细拆解:
-
输入层(多模态感知):
- WA接受原始传感器数据作为输入,包括:
- 视觉输入:摄像头捕获的RGB图像或视频流,用于识别物体、车道和交通信号。
- 声音输入:麦克风采集的环境音频(如鸣笛、紧急车辆警报),用于补充视觉盲区。
- 触觉/其他输入:激光雷达点云(提供深度信息)、雷达数据(速度检测)、IMU(惯性测量单元)等。文档特别提到华为增加后向激光雷达以提升泊车安全,体现了多模态融合。
- 这些数据保持原始格式(如图像张量、点云矩阵),不经语言编码。
- WA接受原始传感器数据作为输入,包括:
-
处理层(行为模型核心):
- WA使用神经网络(如Transformer或CNN)直接学习“感知-行为”映射。模型训练目标包括:
- 世界建模:预测环境状态变化(例如,预测行人轨迹或车辆运动),类似于DeepMind的世界模型(arXiv:1803.10122),该模型使用RNN预测未来帧并生成控制。
- 端到端训练:通过强化学习(RL)或监督学习,模型从历史驾驶数据学习直接输出控制指令。例如,输入一段视频序列,模型输出转向、加速或制动指令。
- 华为的WEWA模型引入了云端引擎,用于实时数据增强和仿真测试,提升模型泛化能力。
- WA使用神经网络(如Transformer或CNN)直接学习“感知-行为”映射。模型训练目标包括:
-
输出层(行为控制):
- WA直接生成低级别控制信号(如方向盘角度、油门开度),而不是高级语言指令。输出是连续动作空间的值,通过PID控制器或类似机制执行。
- 文档强调WA能处理复杂场景(如农村倒车),因为它直接从感知输入识别障碍深度(厘米级精度),避免了语言模型的不确定性。
工作流程示例
- 传感器数据输入:车辆摄像头捕获后视图像,显示一堵墙和伸出的水管。
- WA模型处理:模型直接分析图像像素和激光雷达点云,计算水管的位置和深度(无需转换为“墙上有水管”的语言描述)。
- 行为输出:模型生成“制动”或“转向”指令,防止倒车碰撞。
- 反馈与迭代:通过OTA更新,模型持续学习新场景(如农田坑洼),提升安全性。
-
VLA(感知语言行为模型):
- 技术逻辑:VLA先将感知数据(如视频)转换为语言token(如“车辆在左转”),再通过语言大模型(如GPT系列)生成控制指令。这依赖现有语言模型的成熟度(如OpenAI),但添加了视频到语言的转换层。
- 优势:易于实现快速迭代,因为语言模型能利用互联网知识(如交通规则文本)。
- 劣势:引入额外延迟和误差。语言转换可能丢失细节(例如,无法精确表示深度或速度),导致控制不精确。文档称其为“看似取巧,却不是自动驾驶的终极方案”。
- 行业用例:头部车企如Tesla早期版本使用类似方法(通过图像标注训练语言模型),但近年转向更直接的端到端。
-
WA(世界行为模型):
- 技术逻辑:省去语言层,直接从感知到行为。WA模型学习原始数据的潜在模式(如通过自注意力机制),避免信息损失。
- 核心差异:
- 数据表示:WA处理原始传感器数据,而VLA依赖离散语言token。
- 控制路径:WA是“感知→行为”,VLA是“感知→语言→行为”。
- 实时性:WA减少10-20ms延迟(根据Waymo技术报告2024),关键于高速场景。
- 华为立场:靳玉志认为WA虽难(需海量数据和算力),但能实现“真正自动驾驶”,因为它更接近人类本能反应(人类驾驶不依赖内部语言转换)。
End-to-End Autonomous Driving 验证了WA式框架的优势
-
优势:
- 高精度与安全性:直接处理原始数据,保留环境细节(如深度、纹理),提升决策可靠性。文档强调华为WA支持“零伤亡事故”目标,例如通过后向激光雷达避免泊车事故。
- 低延迟:端到端架构减少计算步骤,适用于实时控制(城区L4场景需响应时间<100ms)。
- 泛化能力强:多模态输入使WA适应多样环境(如声音辅助视觉在雾天)。华为WEWA的云端引擎支持大规模仿真,增强模型鲁棒性。
- 长期价值:模型可全生命周期更新(如ADS 1.0到4.0迭代),文档称用户“初期买得贵,但体验越好”。
-
挑战:
- 数据需求:训练WA需PB级真实驾驶数据,涉及隐私和采集成本。外部报告(McKinsey Autonomous Driving 2024)指出,数据不足是WA部署的主要瓶颈。
- 算力要求:WA模型复杂(如Transformer大模型),需高算力芯片(华为自研昇腾芯片支持,但通用GPU如NVIDIA受限)。
- 验证难度:直接控制模型需严格安全验证(ISO 26262标准),黑盒特性可能导致不可预测行为。
- 行业适用性:WA对车企技术栈要求高,文档指出华为采用“全栈模式”软硬件耦合,而部分车企为降本解耦软硬件,可能牺牲WA体验。
华为计划2026年实现高速L3和城区L4试点,WA是核心驱动力。技术前景包括:
- 短期:在ADS 4.0部署WEWA,提升城区NOP(导航辅助驾驶)能力。
- 长期:结合AI Agent(如鸿蒙座舱的“数字保姆”),WA可扩展至无人物流和全场景L4。
- 行业影响:WA可能重塑自动驾驶格局,靳玉志预测“最终存活玩家极少”,因WA依赖数据规模,推动公共平台共享(如华为云)。
WA代表自动驾驶的终极技术方向——直接从世界感知到行为控制,华为通过WEWA模型实现高效、安全且可持续的迭代。