摘要:十年前AlphaGo把李世石逼到长考时,没人想到这盘棋会改写AI的进化史;十年后华为乾崑掏出ADS 4,智驾圈突然意识到:自动驾驶的“围棋盘”上,人类可能要从“选手”变成“观众”了。这不是危言耸听——当别家还在纠结“端到端要不要加激光雷达”,华为直接甩出“世界
十年前AlphaGo把李世石逼到长考时,没人想到这盘棋会改写AI的进化史;十年后华为乾崑掏出ADS 4,智驾圈突然意识到:自动驾驶的“围棋盘”上,人类可能要从“选手”变成“观众”了。这不是危言耸听——当别家还在纠结“端到端要不要加激光雷达”,华为直接甩出“世界模型”:AI自己生成极端场景疯狂刷题,车端模型化身“多面手专家团”预判路况,从“学人类开车”到“超越人类开车”,ADS 4这步跳级操作,直接把智驾拽进了“AI自己卷自己”的新纪元。今天咱们就扒开这套系统的底裤,看看它到底是真·颠覆还是吹牛皮,以及为啥说这玩意儿一出来,特斯拉、小鹏们的PPT可能得连夜改第三版。
一、从“按剧本演戏”到“自己写剧本”:智驾界的“内卷进化论”
要聊ADS 4,得先说说智驾圈这些年的“打怪升级史”。早年间大家玩的是“规则驱动”,简单说就是程序员写死代码:“看到红灯就刹车”“前车距离小于50米减速”,结果呢?遇到个“鬼探头”或者修路改道,系统直接当场“死机”——就像教小学生做数学题,只背公式不理解原理,换个题型就懵。后来特斯拉带火“端到端”,号称“扔掉30万行代码,让AI抄人类老师傅作业”,结果发现人类司机的“坏习惯”比好习惯还多:压实线变道、过路口玩手机、雨天猛踩油门……AI学了个四不像,遇到极端场景照样拉胯。
直到华为乾崑ADS 4带着“世界模型”杀出来,智驾圈才突然醒悟:原来AI开车不用非学人类,它可以自己当“教练”。怎么理解?举个通俗的例子:以前规则时代是“按剧本演戏”,端到端是“抄人类的作业”,现在世界模型是“AI自己写剧本、自己演、自己改”。这套WEWA架构(World Engine+World Action),左手云端“世界引擎”当“出题老师”,右手车端“行为模型”当“学霸考生”,直接把智驾的“学习效率”拉到了新高度。
先看“WE云端世界引擎”——这玩意儿简直是“AI刷题机”。以前车企头疼“极端场景数据少”,比如高速上突然窜出只羊、隧道口强光晃眼、暴雨天前车掉个轮胎,这些“小概率大风险”的场景,人类司机一辈子遇不上几次,AI上哪儿学去?华为直接用“扩散生成模型”自己造:侧前车突然Cut-in+红绿灯失灵+对向远光晃眼,这种“地狱级难度”的组合场景,云端引擎能批量生成,难例密度直接提升1000倍。打个比方,以前AI练车是“做课后习题”,现在是“刷五年高考三年模拟+奥赛题+老师新编的超纲题”,你说谁学得快?
更狠的是“安全监督员”机制。AI自己生成场景时,系统会强制灌输“安全优先”原则:但凡有碰撞风险的决策,直接打“叉”;但凡能预判危险的操作,给“优”。就像给AI装了个“紧箍咒”,确保它刷题再多也不会学歪。这招比单纯“抄人类数据”聪明多了——人类司机偶尔会分心、侥幸,但AI在“安全红线”上绝不含糊,这才是自动驾驶该有的“靠谱范儿”。
再看“WA车端世界行为模型”——这简直是“车端专家团”。别家车端模型要么是“纯视觉近视眼”,要么是“激光雷达一根筋”,华为直接搞“全模态感知”:视觉(摄像头)、听觉(毫米波雷达)、触觉(激光雷达+超声波)全上,就像给车装了“复眼+顺风耳+敏感皮肤”。更绝的是“MoE多专家架构”:遇到复杂路口调用“导航专家”,高速避险喊“安全专家”,泊车入库请“细节专家”,每个场景都有“最拿手的人”来处理。
举个真实场景:下雨天过积水路段,普通智驾可能只会“减速”,ADS 4的“专家团”会先通过视觉识别水洼深度,再用激光雷达测路面附着力,最后让“平稳驾驶专家”控制油门,既不猛冲溅水,也不龟速堵路——这操作,比老司机还“懂分寸”。李文广说得实在:“纯视觉不是不行,但遇到逆光、暴雨就像人没戴眼镜,激光雷达就是‘备用眼镜’,安全这事儿,多双眼睛总没错。”
二、从“保命”到“舒服地保命”:CAS 4.0把安全卷成“六边形战士”
智驾圈有个笑话:“L2的尽头是‘人工接管’,L3的门槛是‘出事不用背锅’。”但华为乾崑偏要打破这个逻辑——ADS 4不仅要“不出事”,还要“出事了能兜底”,甚至“让你坐得舒服”。这套CAS 4.0全维防碰撞系统,简直是把安全做成了“六边形战士”,随便拎出一项参数都能让同行沉默。
先看“全时速安全”:1-150km/h全程在线,前向AEB最高能在130km/h刹停,eAES避撞速度冲到135km/h。什么概念?相当于在高速上遇到前车突然急刹,ADS 4能在你刚反应过来“卧槽”的瞬间,把车稳稳停在安全距离内——要知道人类司机的反应时间平均0.8秒,130km/h的速度下这0.8秒能冲出去29米,而ADS 4的端到端时延比上一代降了50%,相当于“AI比你快半拍喊刹车”。
再看“全方向安全”:以前防碰撞只防“前后左右”,ADS 4直接加了“负向”和“悬空”。“负向”就是你倒车时突然窜出个小孩,系统能自动刹停;“悬空”更绝——比如你开车过个坑,轮子快掉下去了,系统会主动调整方向避险。这细节抠得,比你妈坐副驾还操心。
最狠的是“全目标安全”和“全天候安全”。小目标识别直接拉满:以前系统看不见的“井盖、碎石、锥桶”,现在激光雷达+视觉融合,老远就能锁定;雾天、雪天、路面附着力不一样(比如一半冰一半沥青),系统能自动调整刹车力度。有数据为证:乾崑智驾累计避免碰撞254万次,ADS 4用上WEWA架构后,重刹率再降30%,颠簸幅度减少50%——以前坐智驾车像“坐过山车”,现在可能比老司机开车还稳。
这里必须吐槽下行业乱象:有些车企吹“L2+”吹得震天响,结果遇到“鬼探头”就歇菜,为啥?要么是激光雷达线程不够(角分辨率低,远了看不清小东西),要么是舍不得成本砍了传感器。华为倒是实在:“安全这事儿不能省,激光雷达就得用高线程的,不然不如不加。”这话扎心但真实——当别家还在纠结“激光雷达是不是智商税”,华为已经用ADS 4证明:安全不是“选择题”,是“必答题”。
三、从“卷数据”到“卷效率”:智驾圈的“降本增效”革命
去年理想裁员18%时,智驾圈炸过一次锅:“端到端不是说能精简团队吗?怎么还裁员?”现在看明白了——端到端只是“抄作业”,遇到“作业质量差”(人类数据不行),照样得靠人工“改作业”。但华为ADS 4的“世界模型”直接跳过这步:AI自己生成“标准答案”,团队规模不用拼人数,拼的是“AI刷题效率”。
这才是ADS 4最狠的地方:它不光提升了“安全性能”,还重构了“研发逻辑”。以前车企比“谁数据多”,现在比“谁能把少数据用出大价值”;以前比“团队人数”,现在比“AI模型效率”。就像AlphaGo从零开始学围棋,不用看人类棋谱也能碾压李世石,ADS 4的“世界模型”不用依赖海量人类数据,照样能把开车玩明白。
特斯拉FSD v12喊过“代码从30万行砍到2000行”,听着唬人,但本质还是“端到端优化”;华为ADS 4直接换赛道——从“学人类”到“超越人类”。比如变道逻辑:人类司机可能“看后视镜打灯变道”,AI能通过多模态感知预判“后车加速意图”,提前0.5秒决定“变还是不变”,无效变道减少,通行效率提升20%。这不是“模仿”,是“进化”。
现在回头看靳玉志的话:“ADS 4不仅是L2的体验升级,更是L3的解决方案。”这话不是空话——当AI能自己生成极端场景、自己优化决策逻辑、自己兜底安全,L3商用就不再是“法规问题”,而是“技术水到渠成”。就像AlphaGo证明AI能下赢围棋,ADS 4正在证明:AI开车不仅能“比人安全”,还能“比人聪明”。
结语:当AI开始“自己卷自己”,人类司机该慌吗?
有人说:“ADS 4这么猛,人类司机要失业了?”其实大可不必——就像AlphaGo没让围棋消失,反而让更多人爱上围棋,ADS 4的终极目标不是“取代人类”,而是“解放人类”。当你在高速上不用紧盯路况,在城区堵车时能腾出双手回消息,在窄路会车时不用手心冒汗,这种“安全感+松弛感”,才是科技该有的温度。
当然,ADS 4也不是完美的——世界模型对算力的要求更高,成本能不能压下来?极端场景生成的“安全标准”谁来定义?这些问题还需要行业一起解决。但不可否认的是,华为乾崑这次确实扔出了“王炸”:当别家还在“端到端”里打转,它已经带着“世界模型”冲向了下一个赛场。
十年前AlphaGo让我们惊叹“AI能这么聪明”,十年后ADS 4让我们意识到“AI能这么靠谱”。或许用不了多久,当你坐进车里说“去公司”,系统回一句“坐稳了,交给我”,你会突然想起李世石当年那句“AlphaGo的棋,像来自未来”——而现在,未来已来。
来源:倪卫涛