Bootstrap

预期功能的必要性与典型案例解析——MUNIK

前言

随着汽车行业的不断发展,人们已经不再满足车辆仅仅作为提高出行效率的简单工具,希望能有有更“聪明的车辆”帮用户解决一部分驾驶带来的困扰。因此,车企们不断探索自动驾驶能够带给人们哪些更便利的解决方案。在这个过程中不可避免地将更多重要的决策行为交由车辆,如果车辆由于某些非功能因素产生错误行为,这是车企与用户都无法接受的结果。预期功能安全(SOTIF)为以后车辆在驾驶任务中所占比重的不断增加提供更多的保障。

1.为何做预期功能安全

驾驶者的误用-misuse

随着自动驾驶技术的不断发展,越来越多的功能被集成在车辆上,极大地提升的驾驶者的使用体验。但随着自动驾驶各类功能的放开,也会带来一定程度的风险。部分智驾功能的使用有一定的限制(例如:高速路领航功能仅在高速场景下被允许使用,自适应巡航功能被启用时驾驶员手不能完全脱离方向盘等)。当驾驶者并未按照指定要求驾驶车辆时,很容易导致危害事件的发生。

性能的局限

虽然技术一直在不断进步,但不可避免的还是会遇到难以根除的问题。例如,视觉传感器或摄像头会因为环境(光线、灰尘、水气等)因素极大影响精度。作为车企需要考虑当恶劣环境时,应用其他解决方案来应对性能不足导致可能引起的危害事件。

上述因素可以看出,即使在功能实现的情况下,依然不排除有其他可能导致危害行为的事件发生。预期功能安全就是为了防止出现此类问题,增加相应的SOTIF措施。

2.预期功能安全典型案例

沃尔沃召回事件

2020年3月,沃尔沃汽车向国家市场监督管理总局备案了召回计划,预计召回15.09万辆汽车。据了解,此次召回原因为在某些特定的情况下AEB系统功能受限。由于毫米波雷达和摄像头的信息融合在某些场景下无法正确识别物体,导致AEB不工作。这牵扯到了毫米波雷达技术本身的性能局限于技术受限,与硬件故障无关,所以是典型的预期功能安全范畴。

虽然该异常的发生情况较为苛刻,但沃尔沃还是决定对多款车型采取召回策略,这就体现出了沃尔沃对预期功能安全的重视程度。

特斯拉滥用L2级辅助驾驶功能事件

2019年,某特斯拉Model S驾驶员闯红灯时撞上另一辆车并造成两人死亡。当时驾驶员开启了特斯拉Autopilot(简称AP)功能,在遇到红灯(特斯拉AP功能无法识别红灯并刹车)时,没有及时接管方向盘,车辆闯红灯导致两车碰撞。被撞的本田思域上的两人死亡,特斯拉车上的驾驶员和乘客受伤。事故发生时,驾驶者正在使用特斯拉的Autopilot辅助驾驶系统。

此事件中,该特斯拉Model S驾驶员未遵守Autopilot功能定义的ODD(Operational design domain)界限,在红绿灯场景仍然未接管驾驶责任,属于典型的自动驾驶功能误用案例。

3.总结

智能汽车发展到今天,集成的自动驾驶功能已经相当复杂了。在这种背景下,单纯的功能安全保障已经难以做到完全覆盖驾驶人员的生命安全。预期功能安全可以很好的补充功能安全难以覆盖的这部分内容。我们愿与汽车行业的各位携手向消费者提供更可靠、安全的汽车解决方案。感谢大家持续的关注,秒尼科将持续为大家分享更多汽车行业的优质内容!

;