查看: 896|回复: 0

[购车优惠] 夜间场景,主动驾驶值得一说的“好故事”?

[复制链接]
发表于 2021-9-24 19:31:12|来自:中国 | 显示全部楼层 |阅读模式

夜间场景,好像成了玩家们体现自家主动驾驶先进性的佐证,又或是成了其在商业化落地上另辟蹊径的切入口。
作者 | 珊珊
编辑 | 文靓
起跑的发令枪早已响起,但主动驾驶并非一次短跑比赛,而是一场拉锯式的马拉松赛事:越是赛程中途,投以关注的目光与掌声越是稀少。
事实上,无论是今年以来的量产落地预告,还是一众企业集体“转道”货运的尝试,都可看作是玩家们试图重新吸引资本与外界关注的方式。
只是,当越来越多玩家加入其中,相似的信号在业内被不断地重复释放,这或许就成了再乏味不过的“老调重弹”。
要想牢牢捉住他人的视线,源源不断的好故事与新噱头不可或缺。
面向夜间场景的主动驾驶技能和落地应用,会是下一个吗?
夜间主动驾驶背后的“大众”需求
主动驾驶技能面世以来,无数从业者都在不断重申的其中一项技能使命即是淘汰交通变乱、进步道路安全性。
Waymo的一项研究曾指出,当前94%的碰撞变乱都是由人为失误导致,而通过使用主动驾驶系统代替人类驾驶员可以有效改善道路安全。
而夜间作为车祸变乱高发的驾驶场景,无疑对主动驾驶技能有着天然的、更加茂盛的需求。

虽然夜间道路的总体交通量相比白天有所淘汰,但司机因此开快车或酒驾的可能性也将随之上升。叠加上夜晚能见度低、司机夜间易疲劳等因素,驾驶员在此时更容易出现误判路况、瞌睡分神的状况,夜间行驶也就因此变得更为危险。
国外统计数据显示,虽然晚上的交通量相比白天淘汰了约60%,但事实上有40%的致命性车祸都发生在夜间。
另有数据显示,中国比年来每年都会发生将近20万起交通变乱,其中60%均发生在夜间,造成的死亡人数占比达50%。
提升夜间行驶的安全性,迫在眉睫。而这自然也成了致力于提升道路安全性的主动驾驶系统必然绕不开的应用场景。
现在,一众主动驾驶玩家集中火力猛攻的货运、矿区、港口等细分落地场景,也已经涉及到了不同程度的夜间作业刚性需求。
夜间应用背后的“大”难题
夜间场景一直被业内视为主动驾驶技能突破的“老大难”。
其最大的障碍就在于,作为现在主动驾驶系统主要传感器之一的摄像头,在夜间的可靠性会大幅降低。
元戎启行CEO周光曾对新智驾表示:“夜间场景的技能限制主要体现在光线不足,摄像头捕捉的图像十分含糊,因此对车辆和行人等环境变化的感知会相对较难。”
基于这一原因,车灯的夜间照明功能也会对视觉传感器带来较大的影响。
世界人工智能专家Lance B. Eliot博士在一篇文章中提到,主动驾驶车辆的车前灯在夜间环境下变得尤为重要。若是前灯形状不佳或被灰尘、污垢等遮挡,就会对图像处理产生严峻影响。同时车辆后部由于直接照明条件不佳,相关的图像捕捉工作也会是一个挑战。
此外,他还指出,夜间驾驶环境中,来自路灯、车灯或其他镜子一样易反光物体的光反射和光畸变也会影响传感器的视觉识别。
除了会影响实时行驶的感知识别,夜间环境还会在图像语义分割、模子训练等环节给主动驾驶技能的优化迭代带来难题。
具体来说,与白天的图像相比,夜间采集的图像将存在更大面积的深色或阴影部分。夜间环境下捕捉到的物体形状,或许会因为光线的原因,显得与白天完全不同。
Lance B. Eliot博士表示,这一现象会影响与物体检测相关的概率:一个在白天会被100%判定为轮椅的物体,到了晚上被识别为轮椅的可能性或许只有60%。
而到了神经网络的训练环节,这一矛盾或许会更加凸显。
上述分析文章指出,如果神经网络只接纳白天的物体图片进行训练,那么到了夜间环境,这些物体很可能不会再被神经网络识别出来。
因此,“神经网络的训练需要将较暗环境中的物体包含在内,这一点非常重要。”
夜间场景并非“无懈可击”
事实上,针对以上技能难点,业内已经尝试过了多种不同的解决方案。
为相识决摄像头在夜间较为突出的成像含糊问题,不少主动驾驶公司都选择了自研相机模块,以解决图像分辨率低、信号灯颜色校正等问题。
正在推进夜间同城货运场景商业化落地的元戎启行,其自研的车载相机据称可提供多模式高精度时间同步、曝光控制、信号灯颜色校正等核心功能,能在夜间、隧道等光线较暗的场景下提供准确的信息和更丰富的图像。
而文远知行则在一次雨天晚高峰测试中提到,其自研的相机模块,可以根据环境的变化主动调整参数,从而在光线不足、雨水反光的环境下,完成对红绿灯、车灯等交通信号的识别。
除此之外,业内还普遍接纳了多传感器融合的技能方案,即借助激光雷达、超声波雷达等其他传感器,与摄像头形成互补,以完成准确度更高的感知检测。
但即便是接纳了多传感器融合的办法,主动驾驶车辆夜间行驶的安全性可以或许因此进步多少,恐怕也没有确切的定论。
Uber路测无人车在2018年导致的一起致人死亡车祸变乱就是其中一个例证。
据称,当时Uber的主动驾驶汽车已然搭载了包括摄像头、激光雷达、毫米波雷达在内的多个传感器,但在那场变乱中这些优劣互补的组件好像并没有起到关键作用。
变乱视频显示,在即将撞上行人时,Uber的主动驾驶汽车没有主动刹车,也未采取任何避让措施。而车内安全员由于当时正低头观看手机视频,并未注意路况,察觉到意外的时候为时已晚。(不过,该事件发生在 2018 年,相关的感知技能可能在近两年内得到了一定的进步)
事后,有人提出,如果在主动驾驶汽车上加装红外热像仪,或许系统就能准确识别出行人,避免变乱的发生。
ReportsnReports的相关资料指出,红外热像仪可以不受可见光影响,同时具有防眩光的长处,在掩护夜间行车安全方面具有巨大潜力。
在主动驾驶中,红外传感器可以作为黑暗条件下无法检测行人的摄像头的补充,并且可以或许弥补激光雷达无法对物体进行分类的自然缺陷。
但现在国内很少有研究L4主动驾驶的公司会在传感器方案中加入红外热像仪。
有业内人士以为,在涵盖了摄像头、激光雷达、毫米波雷达等多种传感器的系统中加入红外传感器的性价比并不高。
理论上,红外热成像技能在识别生命体上更具优势。
但是,由于红外热成像技能主要是通过热辐射收集信息,相比可见光图像,其成像分辨率差、信噪比低,对于径向活动物体的检测能力较差,且现有的红外传感器也存在耐用性差的硬件缺陷。
在激光雷达、雷达都能处理夜间场景的环境下,加入红外传感器或许并不能在此之上大幅度地进步主动驾驶系统在夜间行驶的安全性。
而且,相比成本已经降至百元级别的摄像头,额外增长每台售价近万元的车载红外夜视仪好像也不划算。
更何况,传感器间的融合也并非“1+1=2”那般简单。
一般来说,传感器的数量和种类越多,汽车就能收集到越多、越全面的环境信息。但在现实应用中,传感器并非多多益善。
针对Uber的这起致命性变乱,美国国家运输安全委员会的调查报告显示,车祸发生前Uber的主动驾驶系统实在已经检测到行人,但却将行人错误地识别为“车辆”和“其他”物体,并在之后的物体分类上发生了混乱,在数个不同的结论间摇摆不定,以致于系同一直无法准确计算目标物的行动轨迹,一再错过刹车的机遇——当然,更为关键的是,当时Uber还禁用了车上的主动告急制动系统。
这和Lance B. Eliot 博士在其文章中提到的问题类似:“如果摄像头显示路边好像没有行人(也许只是图像太暗,没有现成的方法可以检测到站在阴影中的人),但雷达检测到那边可能存在某些东西,而传感器融合系统必须作出决策,那么它是否应该根据雷达的结果,提示那边有行人?”
就此来看,对于主动驾驶系统而言,信息并非越多越好。来自不同传感器的不同结论,很可能会造成系统混乱。
曾有业内人士表示,“除了成本因素之外,不合理的传感器组合也会带来相互之间的干扰。而除了感知传感器外,车辆上还搭载控制传感器、环境传感器等,各类传感器的信号传输、功耗散热等都需要设计考虑。”
而且元件越多,整个系统出现故障的概率也会随之提升。
安森美半导体的高管Sandor Barna曾表示,多个传感器的校准及协调,是设计多传感器系统的挑战之一。
故而,在仅仅依靠车辆自身的感知系统之外,Lance B. Eliot 博士提出,V2V也是一种不错的解决办法。
他以为,主动驾驶汽车之间的通信交流,可以实现车辆在夜间驾驶条件下的互帮互助。
举例来说,“当前方行驶的主动驾驶汽车已经发现有一个行人站在人行横道上,但你的主动驾驶汽车却因为黑暗或角度的问题无法完全确定,那么前方车辆可以与你的车分享这一信息。交叉共享将在集体和协作的基础上,帮助AI增强夜间驾驶的性能。”
结语
就现在来看,夜间场景实在天然存在对主动驾驶的商业需求,只是在现实应用和技能突破中尚存难点。
不过,物以稀为贵。这也刚好可以让一些玩家针对这一应用场景空白,构筑高壁垒。
眼下,好像已经有不少玩家意识到了这一点:从滴滴、AutoX、文远知行的Robotaxi夜间路测,到百度Apollo在沧州、北京等地开启Robotaxi夜间运营,再到元戎启行近日宣布进军夜间同城货运,“夜间场景”好像成了玩家们体现自家主动驾驶先进性的佐证,又或是成了其在商业化落地上另辟蹊径的切入口。
或许,谁能率先抢占夜间主动驾驶技能的桥头堡,谁就更有可能借夜间场景应用的新噱头,讲出一个好故事。
END

关于「无人驾驶」,一位投资大佬给出了四大预判

内卷、突围,一个主动驾驶创业者的「生存法则」
回复

使用道具 举报

发表回复

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

广告位
Empty Ads
关闭

站长推荐上一条 /1 下一条

联系客服 关注微信 下载APP 返回顶部 返回列表