查看: 175|回复: 0

[汽车天地] 踩了油门也能刹车,华为ADS 3.2内测,遥遥领先这次实现了?

[复制链接]
发表于 2024-10-30 03:43:26|来自:中国广东 | 显示全部楼层 |阅读模式


一天时间,中国汽车都沉浸在“世界第一”里。小米SU7 Ultra,用真刀真枪的6分46秒874,拿下了纽北最速四门车,成为了世界第一;小鹏汽车,说自己从智驾到企业风格,都和马斯克的特斯拉一样,当然,也有人选择不语言。今年10月25日,华为智能汽车办理方案不动声色的发布了ADS Pro V3.1版本,甚至在越日还迅速开启了V3.2 beat的内测体验,从之前的ADS 3.0智驾效果看,其实就已经非常靠近脱手自动驾驶了,而新版本在这基础上,又优化了对细节的感知能力,也新增了不少更类人的决议,总之,团体的功能框架在完成车位到车位这类操作上更加流通了,参考其他品牌的智驾节点,下个月会有抱负500万CLIPS的6.4新模型,小鹏纯视觉5.4、小米新版NOA、智己大规模推开的momenta等等,为什么说华为ADS Pro V3.2更值得各人期待呢?


踩错踏板也能刹停,靠的是LiDar+AEB?

先来回顾一下华为乾崑智驾ADS V3.0的功能效果,在拿掉BEV网络之后,负责感知的GOD网络和负责预测决判的PDP网络,在激光雷达、4D毫米波雷达这类感知硬件的配合下,可以全天候对道路细节做到感知,好比会看红绿灯、会过闸机、启动场景不受限制,碰到鬼探头不会忽然一脚刹停,在复杂路口大概交织环岛的通行率也有一定的包管,但做了出于安全冗余考虑,系统在这类场景多数还是会主动降级到LCC,而在最新的版本中,ADS Pro V3.1和V3.2 beat都优化了这类细节,接管率和执行决议都做到了更低、更类人,除了这些,新版本还在哪些方面有明显提升?


从实测体验结果来看,ADS Pro V3.1和V3.2 beat优化了几处功能,包括NCA路口通行,低风险降低脱手告诫频次、学习代客泊车门路,导航试图分频显示、雷达遮挡提醒、识别井盖等。这此中,脱手告诫不再时不时就忽然弹出来,而是系统在判定当下智驾场景风险不高的时候,会不停处于静默状态,从某种意义上讲,这个功能的出现几乎说明华为已经无限靠近到了L3,下一步要做的就是接着优化在高风险场景下的决议能力,像在拥堵加塞、人车混行的复杂路口,整套系统的处理机制不再显得呆板,而是伺机加塞或选择绕行,这个执行效果就非常拟人,甚至是在窄路会车大概U型掉头时,系统还会根据与周围停滞物的距离,选择多打半圈方向盘,增大转弯半径避免发生剐蹭。


比较有意思的是新增的几个功能,详细是NCA靠边临停,路面自适应防碰撞,横穿防碰撞避让、误踩加速踏板识别以及误挂挡防碰撞,在之前的版本之中,当导航即将到达目标地时(尤其是非停车场场景),系统会跳出界面提示必须由人工接管泊车,这次的优化就是办理了最后这部分的人类驾驶员操作,直接让车辆自主靠边停车,而在“防碰撞”的几个功能当中,根本都是GOD网络变更AEB发挥了作用,好比当感知硬件发现路面附着力不高的时候,系统会提前触发AEB,随时进行重刹,之前不停有提到的预判鬼探头,更多的其实是针对静止停滞物所完成的判断,好比双向主干道忽然蹿出的行人或电瓶车,在察觉到道路危险后已经停止了活动轨迹,优化之后预判的底层逻辑不变,变的是可以在道内或借路紧急避障,当然了,华为也给这项功能做了安全冗余,只有在低速加塞场景之下,才能触发横穿/斜穿防碰撞。


误踩踏板防碰撞有必要单独拿出来聊。前几年,车主对新能源汽车的单踏板模式争议许久,大部分车主认为有雷同制动效果的加速踏板,在慌乱中难以分辨自己是否已经采取制动,所以普遍会误踩踏板发生剐蹭,现在看这个问题其实很好办理,在端到端的智驾模式下,可以给大模型训练特定场景,大概直接给它规则,当传感器识别到已经触及碰撞危险距离时,直接变更AEB进行制动,所以即便是驾驶员依然踩着加速踏板,车辆也能刹停,不论是走纯视觉门路还是多传感器门路的智驾方案,这个功能其实都是可以实现的。


值得一提的是,华为在10月25日发布ADS Pro V3.1,越日就推送了V3.2 beat内测,这似乎说明V3.1版本还不敷“完美”,从3.1版本的多个实测体验来看,比起内测版本最明显的区别,是后者智驾过程耗费的时间更少,同时接管率也更低,也就是说,内测版在细节处理上的决议机制,明显要显得更聪明一些,好比在最考验博弈能力的环岛或复杂路口,在没有自动降级的情况下,同样是面对移动停滞物,3.1版本在考虑选择礼让还是借到绕行的时间,都要比内测版本慢上几秒,所以发起后期直接升级到V3.2正式版。
无限靠近L3级,只有华为GOD大网做的最好?

前面提到,误踩踏板防碰撞两大智驾方案都可以实现,但要是拆开来讲,有激光雷达安全冗余度肯定更高一些,毕竟,这种处理方案需要对环境进行实时扫图然后交给大模型去理解,不过在复杂路口环境下,可能会导致系统需要更多的处理时间和算力,这就引出新的思考了,对于没有激光雷达的纯视觉方案,把算力堆上去是不是也能更好的办理?


答案天然是肯定的,算力储备高就意味着大模型在单位时间内,处理数据的速度可以更快,这也是促进AI学习和训练的基础,虽然激光雷达确实会占用一部分算力,把感知数据输送给智心也需要时间,但是这个缺点可以通过优化预判决议网络给弥补掉,引出几个数据作为参考,智己momenta云端算力只有2.5 E FLOPS,抱负汽车为4.5E FLOPS,华为乾崑智驾目前有5E FLOPS,小鹏明年会从2.51E FLOPS拓展到10E FLOPS,而特斯拉则高达35E FLOPS,换句话说,激光雷达的出现,其实是不需要太高云端算力的,而纯视觉方案正好反了过来,可能有人不理解了,高算力是不是就等于智驾能力强呢?


并不是,算力只是指芯片每秒能够执行的运算次数,而算法才是自动驾驶的核心,特斯拉FSD就是一个典范的端到端算法,今年转向AI鹰眼的小鹏也是雷同的逻辑,都是需要用足够的实测视频训练神经网络,感知层面的数据来源仅仅是靠摄像头来完成,而前两天智己发布的momenta,底层逻辑虽然也是如出一辙,但是感知元件多了一颗激光雷达,所以这就可以很好理解了,纯视觉智驾方案需要大量的算力,也需要不断进化的大模型算法,优点是系统的驾驶行为可以学习人类驾驶员的习惯,计算任务相对精简,级联误差减少之后,数据驱动更容易发挥规模法则,缺点也就很直接了,就是需要堆更高的算力储备和强化算法。


相比之下,现阶段华为的GOD+PDP方案,其实优势要更多一些,就拿最容易出现降级的复杂路口来说,从GOD+AEB的分段式架构变成GOD一张大网,直接就省掉了原来数据传递过程中需要的时间和算力,甚至是路径的博弈,而BEV网络存在之前,系统是需要将整个场景对上停滞物的坐标,然后还要对每个停滞物单独去做活动轨迹分析和预判,这些都需要计算的成本和时间,若是在数据分析量巨大的复杂环岛,BEV网络就会出现数据分析过慢、输送耽误,直到过载导致降级转为人工接管,所以去掉BEV融入GOD网络,可以不再单给活动停滞物分析坐标,直接预测它的轨迹路径就可以了,普通一点来讲,道理其实和分段式架构并成一张大网是一样的,而实现这些的前提,都是需要大网具备复杂路况的数据理解能力和处理能力。


再有就是感知硬件上的能力了,4D毫米波雷达通过回波可以对小体积的异性停滞物构成立体模型,华为自己的192线激光雷达也是用更多的激光线束对道路细节实时扫图,都是给GOD大网提供数据更加精确的原始数据模型,所以从某种程度上讲,取消BEV网络也是给高精雷达传感器的性能来回“松绑”,详细到效果层面上看,最多两把就能泊入车位的自主泊车功能就是最好的例子。


总结一下,从2021年发布ADS 1.0,到2023年引入GOD网络概念,再到2024年形成由GOD+PDP构成的一张大网办理所有功能,华为的这套乾崑智驾方案,其实在3.0版本的时代就根本摸到了L3级自动驾驶的门槛了,所以在这套系统之后,华为只需要再优化一些处理机制上的细节,提升一些决议执行的速度,能和数据积累量极其巨大的特斯拉FSD抗衡,不出意外的话其实现在就只有华为了。

来源:https://view.inews.qq.com/k/20241029A074HU00
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
回复

使用道具 举报

发表回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

广告位
Empty Ads
关闭

站长推荐上一条 /1 下一条

联系客服 关注微信 下载APP 返回顶部 返回列表