当前位置: 首页 > java >正文

AutoDriveRelated-WA

概述

自动驾驶技术架构,强调其作为“大脑与神经网络”的角色,需整合感知、决策、执行和云端协同等多个环节。目标是从实验室走向实际道路,支撑车辆实现安全、自主的驾驶。架构分为多个层级:车端硬件、车载计算平台、执行硬件、云端训练、决策规划、功能安全、车路协同等,最终形成一个闭环系统。

车端硬件

车端硬件是自动驾驶的第一步,负责“看得见、摸得着”环境与自身状态。分为三大子系统:

  • 外部环境感知:依赖多传感器融合方案,以应对不同场景的盲点。
    • 摄像头:通过光学镜头和图像传感器捕捉道路、交通标志、行人等二维信息,供视觉算法处理。
    • 毫米波雷达:在雨雾等恶劣天气下稳定测量目标距离和速度。
    • 激光雷达:发射数十万到数百万束激光脉冲,生成高精度三维点云,用于重建物体三维轮廓。
    • 超声波雷达:适用于低速泊车和近距离避障,提供米级精细探测。
    • 传感器融合:不同传感器(如摄像头、雷达)互补盲点,构建全天候环境模型。
  • 车辆状态感知:实时监测车辆动态参数。
    • 转向角度传感器:检测方向盘角度变化,判定转向意图。
    • 轮速传感器:基于车轮转速差异计算车速和滑移率,为ABS和TCS系统提供数据。
    • 惯性测量单元(IMU):结合GNSS/RTK定位,通过扩展卡尔曼滤波融合高频惯性数据和低频卫星数据,实现厘米级连续定位(即使在隧道等信号弱区)。
  • 车内驾驶员监测系统(DMS):为L2/L3级辅助驾驶提供安全保障。
    • 组成:红外摄像头、普通摄像头、压力/生物传感器。
    • 算法:面部与眼球关键点检测、头部姿态估计、眨眼频率统计,评估驾驶员注意力和疲劳状态。
    • 功能:在注意力分散或双手离开方向盘时触发警示或接管机制,确保人车协同安全。
车载计算平台

车载计算平台是数据处理的“中枢神经”,负责实时汇聚传感器数据,进行推理与决策。

  • 域控制器(Domain Controller):核心组件,集成数据处理、推理计算、子系统驱动(人机交互、T-Box、线控底盘)。
    • 核心组成
      • 计算SoC(System on Chip):集成CPU、GPU和NPU(神经网络处理单元),支持INT8/FP16量化推理,平衡算力与功耗。算力需求:L2级50–200 TOPS,L3级≥200 TOPS,L4级≥1000 TOPS,L5级≥2000 TOPS。强调算力优化优于盲目追求峰值。
      • 内存与存储子系统:处理海量数据流。
      • 电源管理与散热设计:确保稳定运行。
      • 接口设计:支持多种总线标准,如GMSL/FMC+CSI-2(高速摄像头输入)、IEEE 802.3 100Base-T1/1GBase-T1(车载以太网)、CANFD(控制总线)、SPI/UART/I²C(低速接口),以及LIN总线/FlexRay(兼容执行器和车身模块)。
    • 操作系统(OS):选用ISO 26262 ASILD级安全标准的RTOS或微内核系统,如Classic/Adaptive AUTOSAR、QNX、嵌入式Linux车规版或华为AOS/VOS。特性包括:内核级安全隔离、优先级抢占式调度、时间分区技术,确保高优先级任务(如碰撞预警)毫秒级响应,支持多任务并行、数据加密和OTA安全升级。
边缘推理与执行硬件

在计算平台推理完成后,输出结果通过执行硬件落实控制。

  • 输出结果
    • 实时轨迹生成:驱动转向、加减速和悬架调节。
    • 场景理解与预测:用于人机交互和冗余安全校验。
  • 执行机构
    • 线控转向(SBW):替代机械连杆,电机直接驱动转向总成,实现可编程反馈和自适应助力比调整。
    • 线控制动(EBB/EHB):电子控制液压或电机制动,支持四轮独立制动,提升湿滑路面和急停安全性。
    • 线控驱动:针对电动/混动平台,通过电机扭矩分配实现精准驱动。
    • 智能悬架:动态调节阻尼和高度,平衡舒适性与操控稳定。
  • 控制机制:配备反馈传感器(如转向角度编码器、制动压力传感器),形成闭环控制。结合模型预测控制(MPC)或自抗扰控制(ADRC)算法,实时修正轨迹偏差,应对路面扰动和负载变化。
云端训练与车云闭环

车端推理不足以处理长尾场景(Corner Case),依赖云端进行大规模训练和验证。

  • 训练流程
    • 数据采集:要求规模性(千万公里级真实数据+百亿级仿真数据)、准确性(多级标注和一致性管控)、多样性(覆盖不同道路、气候、交通习惯)。
    • 标注质检:确保数据质量。
    • 仿真合成:生成复杂场景数据。
    • 分布式训练:使用超算集群和强化学习优化决策策略,结合大模型架构。
    • 轻量化部署:通过剪枝、量化、蒸馏技术生成适配车载算力的轻量模型。
  • 验证与迭代
    • 多层次仿真体系:包括场景回放测试和对抗性测试,验证极端工况下的鲁棒性。
    • OTA更新:将成熟模型下发车端。
    • 影子模式:在真实路况下采集数据,用于后续迭代,形成“车云协同”闭环。
智能决策与行为规划

决策规划是自动驾驶的“大脑”,负责从感知到执行的中间环节,确保行为类似人类驾驶。

  • 策略规划(Behavior Planning):高层决策输出驾驶动作(如“超车”或“减速进匝道”)。
    • 方法:状态机(Finite State Machine)、规则树(Decision Tree)、强化学习策略网络(Policy Network)。
    • 进阶技术:意图识别模块预判他车行为(如前车变道、行人穿越),Transformer模型预测多目标意图并计算行为得分。
  • 路径规划(Path Planning):基于策略生成平滑可行路径。
    • 方法:混合A*算法、贝塞尔曲线、样条曲线(Spline)、状态采样(RRT)。
    • 约束:满足车辆动力学(最大转向角、最小转弯半径、最大横向加速度),兼顾舒适性(避免急转弯或颠簸)。
  • 轨迹控制(Trajectory Control):将路径转换为控制命令(如速度、方向盘转角)。
    • 方法:PID控制、前馈控制(Feed-forward)、模型预测控制(MPC)。MPC将控制问题转化为带约束优化问题,预测未来响应并输出最优序列。
  • 协同预测:在复杂场景(如多车汇流),使用多主体博弈模型(Game-theoretic Planning)协同预测他车轨迹,提升决策鲁棒性。
功能安全与网络安全

自动驾驶涉及人身安全,需嵌入严格的安全机制。

  • 功能安全
    • ISO 26262标准:划分ASIL等级(A-D),D级最高(适用于转向/制动等关键环节)。
    • HARA(Hazard Analysis and Risk Assessment):识别潜在危险事件,设计冗余方案(如线控制动双通道:主通道工作,副通道紧急备份)。
    • 故障注入机制:模拟软硬件故障,检验应急响应(Fail Operational原则:部分失效时保障基本功能)。
  • 网络安全
    • ISO/SAE 21434标准:构建多层架构。
      • 车载以太网防火墙(Firewall)和入侵检测系统(IDS):隔离外部通信(如T-Box)与核心控制器。
      • 端到端加密:采用TLS/SSL或DTLS,数字签名和证书验证数据完整性和来源。
      • 安全启动(Secure Boot)和安全执行环境(TEE):启动时验证软件完整性,防篡改。
车路协同与系统进化

从“单车智能”向“车路协同”演进,融入智能交通系统。

  • V2X技术
    • 场景:V2I(车与路侧设施)、V2V(车与车)、V2N(车与云)、V2P(车与行人)。
    • 应用:V2I提前获知红绿灯变化调整车速,减少急刹;V2V广播事故警告避让。
  • 通信基础
    • C-V2X技术:基于蜂窝网络,包括PC5直连(低延迟场景,如紧急避让)和Uu网络通信(海量数据交换,如拥堵广播)。
    • 5G-V2X优势:延迟缩短至1–5毫秒,支持高速协同。
  • 系统架构
    • “车-路-云”三层协同:城市交通管理中心处理拥堵预测、绿波带控制;边缘计算节点处理路口信号配时、轨迹融合。
    • 数字孪生系统:实时建模虚拟交通世界(车辆轨迹、红绿灯配时、交通流),服务于规划、应急管理和事故追溯。

自动驾驶是系统工程的全方位突破,依赖多技术层级的协调(感知、决策、执行、云端、安全、协同)。未来演进方向包括算法大模型、芯片算力提升和车路一体化,目标是从“辅助驾驶”迈向“无人化运营”。成功关键不在于技术堆砌,而在于系统稳定性、可控性和协同性。最终愿景是构建“聪明的交通”,实现高效、安全、绿色的出行新时代。

  • 核心人物:华为智能汽车解决方案BU CEO靳玉志,分享华为汽车业务进展及技术观点。
  • 时间背景:访谈发生于华为ADS 4.0即将大规模上车之际(2024年)。
华为自动驾驶阶段性成就

靳玉志公布截至2024年7月的关键数据,体现华为在智驾领域的领先地位:

  • 乾崑智驾搭载量:100万辆(截至2024年7月)。
  • 激光雷达出货量:超过100万台(全球最大激光雷达供应商之一)。
  • 辅助驾驶累计里程:40亿公里(验证系统可靠性)。
  • 合作车型规模:截至2024年8月底,共有28款搭载华为技术的车型上市,涵盖品牌包括:
    • 华为自有“界”系列(如问界、尊界)。
    • 合作车企:阿维塔、深蓝、岚图、猛士、传祺、方程豹。
    • 国际品牌:奥迪(体现全球化布局)。
华为的长期主义战略
  • 投资历程:华为车BU自2014年开始投入,十年间持续投入研发资源,近期实现当期盈利。
  • 盈利逻辑
    • 不急于制定商业化目标,避免因短期利益损害技术积累。
    • 靳玉志观点:只盯着商业化会适得其反;坚持技术研发与用户需求满足,终将实现可持续盈利(当期盈利后,目标转向累计盈利)。
  • 战略本质:技术优先于商业化,确保系统长期竞争力。
自动驾驶技术路线之争:VLA vs WA

靳玉志对比两种主流技术路径,阐明华为选择WA(World Action)的原因:

  • VLA(感知语言行为模型)
    • 核心逻辑:利用成熟的语言大模型(如OpenAI),将视频数据转化为语言token训练,再生成控制指令。
    • 行业现状:部分头部车企采用此路径,实现辅助驾驶能力快速迭代。
    • 华为批判:路径“看似取巧”,但非终极方案——依赖语言转换会引入信息损失和延迟,无法真正实现自动驾驶。
  • WA(世界行为模型)
    • 核心逻辑:直接通过多模态输入(视觉、声音、触觉等)生成控制指令,省去语言转换环节。
    • 华为优势:已基于WA架构推出WEWA模型(云端世界引擎+世界行为模型),将于ADS 4.0部署。
    • 技术挑战:当前难度更高,但靳玉志认为WA能实现“真正的自动驾驶”。
  • 关键洞见:WA代表“端到端控制”,直接连接感知与执行,减少中间环节的误差。
辅助驾驶商业模式与收费合理性

靳玉志回应“免费辅助驾驶”争议,强调收费的必然性:

  • 免费本质批判
    • 不存在真正免费:免费策略实为“支付转移”(如车价包含成本、限时免费、或牺牲用户体验)。
    • 风险提示:部分车企以免费名义将用户当作“实验品”,损害安全性与体验。
  • 收费合理性论证
    • 持续投入需求:辅助驾驶需全生命周期维护(迭代、OTA升级、硬件兼容),例如华为从ADS 1.0到4.0的持续升级。
    • 用户价值:华为采用“生命周期管理”理念,确保硬件长期兼容(如早期用户设备仍可升级),折算后成本更低。
    • 商业回报:收费支撑研发投入,形成“越用越优”的正循环。
  • 全栈模式优势
    • 鸿蒙座舱与乾崑智驾均采用软硬件耦合设计,避免解耦导致的体验下降和维护难题。
    • 对比行业:部分车企为降本解耦软硬件,但牺牲长期用户体验。
激光雷达配置争议的回应

针对“增加激光雷达为溢价”的质疑,靳玉志从安全角度辩护:

  • 配置示例:尊界S800搭载前向+双侧向+后向固态激光雷达。
  • 安全驱动逻辑
    • 后向雷达必要性:摄像头无法识别未知障碍物(如墙面水管、农田坑洼),激光雷达提供厘米级精度和深度信息,避免泊车事故。
    • 用户场景导向:配置基于真实需求(如农村复杂路况),非刻意堆料。
  • 核心理念:“零伤亡事故”为目标,安全投入优先于成本考量。
未来规划与技术愿景

华为公布明确的自动驾驶与智能座舱发展路线图:

  • 辅助驾驶演进
    • 2026年:实现高速L3能力(有条件自动驾驶)+城区L4试点。
    • 2027年:无人干线物流试点+城区L4规模化商用。
    • 2028年:无人干线物流规模化商用。
  • 智能座舱方向
    • 鸿蒙座舱进化为“数字保姆”,集成AI Agent(智能代理)提供主动服务。
    • 目标:打通应用生态与硬件设备,实现跨场景协同。
关键问答实录摘要

访谈中靳玉志回应核心问题,体现华为技术自信与行业洞察:

  • VLA vs WA路径选择
    • 问:VLA能否实现L4?
    • 答:华为拒绝VLA,因其依赖语言转换;WA虽难,但直达自动驾驶本质。
  • L3/L4玩家数量预测
    • 答:最终存活企业极少(类比具身智能行业洗牌),因数据驱动依赖算力、算法和公共平台(单独投入不经济)。
  • 车型匹配周期
    • 答:华为最快6-9个月完成一款车型的智驾系统匹配。
  • 定价与竞争
    • 问:华为7万元定价是否高于友商(如5万元)?
    • 答:定价反映价值(持续迭代成本),免费策略不可持续;用户为“常用常新”体验付费。

华为在自动驾驶领域的三大支柱:

  • 技术领先:WA路径选择体现“第一性原理”思维,直击自动驾驶核心挑战。
  • 商业理性:批判免费模式,倡导可持续收费支撑全生命周期创新。
  • 生态布局:从激光雷达硬件到云端训练(WEWA),构建闭环能力。

华为的长期主义与全栈模式是其实现“零伤亡”愿景的基石,未来目标(2026-2028年L3/L4商用)彰显技术自信。靳玉志的访谈为行业提供了关键洞见:自动驾驶成功依赖技术深度而非短期商业化,安全与用户体验不可妥协。

WA(World Action)中文译为“世界行为模型”,是一种端到端(end-to-end)的自动驾驶决策控制框架。其核心思想是:直接从多模态传感器输入(如视觉、声音、触觉等)生成车辆控制行为(action),省去中间的语言转换步骤。文档中,靳玉志将WA描述为“通过vision这样的信息输入控车的大模型,而无需把各种各样的信息转成语言,再通过语言大模型来控制车”。这里的vision代表广义感知输入,可能包括摄像头图像、激光雷达点云、麦克风音频等。

行为模型(Behavior Model)指系统从感知数据直接映射到控制指令的能力,强调“感知-行为”的直接性。这与端到端学习(end-to-end learning)概念类似,例如框架可能使用端到端网络,避免了传统模块化流水线(如感知-规划-控制分离)的延迟和误差。

WA的本质是构建一个“世界模型”(World Model),能理解和预测环境动态(如车辆、行人运动),并据此输出实时控制。华为的WEWA模型扩展了这一概念,整合了云端引擎进行大规模数据训练和仿真。

WA的技术架构基于深度学习和大模型技术,分为输入层、处理层和输出层。文档指出,WA是“直接通过行为端控车”,处理过程不依赖语言token转换。以下是详细拆解:

  • 输入层(多模态感知)

    • WA接受原始传感器数据作为输入,包括:
      • 视觉输入:摄像头捕获的RGB图像或视频流,用于识别物体、车道和交通信号。
      • 声音输入:麦克风采集的环境音频(如鸣笛、紧急车辆警报),用于补充视觉盲区。
      • 触觉/其他输入:激光雷达点云(提供深度信息)、雷达数据(速度检测)、IMU(惯性测量单元)等。文档特别提到华为增加后向激光雷达以提升泊车安全,体现了多模态融合。
    • 这些数据保持原始格式(如图像张量、点云矩阵),不经语言编码。
  • 处理层(行为模型核心)

    • WA使用神经网络(如Transformer或CNN)直接学习“感知-行为”映射。模型训练目标包括:
      • 世界建模:预测环境状态变化(例如,预测行人轨迹或车辆运动),类似于DeepMind的世界模型(arXiv:1803.10122),该模型使用RNN预测未来帧并生成控制。
      • 端到端训练:通过强化学习(RL)或监督学习,模型从历史驾驶数据学习直接输出控制指令。例如,输入一段视频序列,模型输出转向、加速或制动指令。
      • 华为的WEWA模型引入了云端引擎,用于实时数据增强和仿真测试,提升模型泛化能力。
  • 输出层(行为控制)

    • WA直接生成低级别控制信号(如方向盘角度、油门开度),而不是高级语言指令。输出是连续动作空间的值,通过PID控制器或类似机制执行。
    • 文档强调WA能处理复杂场景(如农村倒车),因为它直接从感知输入识别障碍深度(厘米级精度),避免了语言模型的不确定性。

工作流程示例

  1. 传感器数据输入:车辆摄像头捕获后视图像,显示一堵墙和伸出的水管。
  2. WA模型处理:模型直接分析图像像素和激光雷达点云,计算水管的位置和深度(无需转换为“墙上有水管”的语言描述)。
  3. 行为输出:模型生成“制动”或“转向”指令,防止倒车碰撞。
  4. 反馈与迭代:通过OTA更新,模型持续学习新场景(如农田坑洼),提升安全性。
  • VLA(感知语言行为模型)

    • 技术逻辑:VLA先将感知数据(如视频)转换为语言token(如“车辆在左转”),再通过语言大模型(如GPT系列)生成控制指令。这依赖现有语言模型的成熟度(如OpenAI),但添加了视频到语言的转换层。
    • 优势:易于实现快速迭代,因为语言模型能利用互联网知识(如交通规则文本)。
    • 劣势:引入额外延迟和误差。语言转换可能丢失细节(例如,无法精确表示深度或速度),导致控制不精确。文档称其为“看似取巧,却不是自动驾驶的终极方案”。
    • 行业用例:头部车企如Tesla早期版本使用类似方法(通过图像标注训练语言模型),但近年转向更直接的端到端。
  • WA(世界行为模型)

    • 技术逻辑:省去语言层,直接从感知到行为。WA模型学习原始数据的潜在模式(如通过自注意力机制),避免信息损失。
    • 核心差异
      • 数据表示:WA处理原始传感器数据,而VLA依赖离散语言token。
      • 控制路径:WA是“感知→行为”,VLA是“感知→语言→行为”。
      • 实时性:WA减少10-20ms延迟(根据Waymo技术报告2024),关键于高速场景。
    • 华为立场:靳玉志认为WA虽难(需海量数据和算力),但能实现“真正自动驾驶”,因为它更接近人类本能反应(人类驾驶不依赖内部语言转换)。

End-to-End Autonomous Driving 验证了WA式框架的优势

  • 优势

    • 高精度与安全性:直接处理原始数据,保留环境细节(如深度、纹理),提升决策可靠性。文档强调华为WA支持“零伤亡事故”目标,例如通过后向激光雷达避免泊车事故。
    • 低延迟:端到端架构减少计算步骤,适用于实时控制(城区L4场景需响应时间<100ms)。
    • 泛化能力强:多模态输入使WA适应多样环境(如声音辅助视觉在雾天)。华为WEWA的云端引擎支持大规模仿真,增强模型鲁棒性。
    • 长期价值:模型可全生命周期更新(如ADS 1.0到4.0迭代),文档称用户“初期买得贵,但体验越好”。
  • 挑战

    • 数据需求:训练WA需PB级真实驾驶数据,涉及隐私和采集成本。外部报告(McKinsey Autonomous Driving 2024)指出,数据不足是WA部署的主要瓶颈。
    • 算力要求:WA模型复杂(如Transformer大模型),需高算力芯片(华为自研昇腾芯片支持,但通用GPU如NVIDIA受限)。
    • 验证难度:直接控制模型需严格安全验证(ISO 26262标准),黑盒特性可能导致不可预测行为。
    • 行业适用性:WA对车企技术栈要求高,文档指出华为采用“全栈模式”软硬件耦合,而部分车企为降本解耦软硬件,可能牺牲WA体验。

华为计划2026年实现高速L3和城区L4试点,WA是核心驱动力。技术前景包括:

  • 短期:在ADS 4.0部署WEWA,提升城区NOP(导航辅助驾驶)能力。
  • 长期:结合AI Agent(如鸿蒙座舱的“数字保姆”),WA可扩展至无人物流和全场景L4。
  • 行业影响:WA可能重塑自动驾驶格局,靳玉志预测“最终存活玩家极少”,因WA依赖数据规模,推动公共平台共享(如华为云)。

WA代表自动驾驶的终极技术方向——直接从世界感知到行为控制,华为通过WEWA模型实现高效、安全且可持续的迭代。

http://www.xdnf.cn/news/19321.html

相关文章:

  • Qt中的锁(1)
  • 【lua】table基础操作
  • String str = new String(“abc“)
  • C语言---零碎语法知识补充(队列、函数指针、左移右移、任务标识符)
  • 第十六章 ESP32S3 WATCH_DOG 实验
  • C++优先级队列priority_queue的模拟实现
  • 论文介绍:《Small Language Models are the Future of Agentic AI》
  • Python(五)Python_C API详细
  • Linux三剑客grep-sed-awk
  • 为什么vue3会移除过滤器filter
  • 北斗导航 | RAIM算法改进方案及性能对比分析报告
  • 深度学习:洞察发展趋势,展望未来蓝图
  • 计算机网络面试集合
  • 【AI工具】在 VSCode中安装使用Excalidraw
  • Java全栈开发面试实战:从基础到微服务的深度解析
  • 小迪安全v2023学习笔记(七十四讲)—— 验证机制篇验证码绕过思路SRC挖掘演示
  • Coze源码分析-API授权-获取令牌列表-前端源码
  • LeetCode刷题记录----51.N皇后(Hard)
  • OpenCV安装及其开发环境配置(Windows系统Visual Studio 2022)
  • ros1ros2区别和相同之处
  • 软考 系统架构设计师系列知识点之杂项集萃(136)
  • 【LeetCode - 每日1题】有效的数独
  • Java基础知识(十)
  • plantsimulation知识点 多条RGV驮一台工件图标显示顺序问题
  • C语言类型转换踩坑解决过程
  • 重叠IO模型
  • 深入理解 Linux 驱动中的 file_operations:从 C 语言函数指针到类比 C++ 虚函数表
  • 学习Python中Selenium模块的基本用法(11:弹窗处理)
  • Day18_【机器学习—交叉验证与网格搜索】
  • 【ROS2】ROS2 基础学习教程 、movelt学习