從國道事故看 自駕車定義、測試里程意義

僅僅在今年3月,國道就發生至少4起開啟駕駛輔助功能的自用小客車追撞工程車的事故,並造成一名施工人員死亡。此類事故涉及2個攸關行車安全的問題,首先是「自駕車」的定義。儘管特斯拉自2021年9月起開放部分北美車主一鍵下載「完全自動駕駛」(Full Self-Driving, FSD)Beta版,但這其實只是汽車工程學會(The Society of Automotive Engineers)於SAE J3016「道路機動車輛所用自駕系統相關詞彙分類及定義」的Level 2駕駛輔助功能,涉及廣告不實且未能盡到對消費者的告知義務,已經是監理機關必須正視的問題。

值得一提的是,美國加州法院於今年2月23日開庭審理一名特斯拉車主Kevin Riad於2019年12月駕駛Model S,使用自動輔助駕駛(Autopilot)功能,於下匝道後,突然高速闖紅燈並造成通過路口的本田自小客車駕駛人及乘客死亡一案。須注意的是,被起訴「駕車致人於死」(Vehicular Manslaughter)的是駕駛人Kevin Riad,而不是特斯拉。這很明確地說明了Level 2駕駛輔助功能的特點–啟用駕駛輔助功能後,駕駛人仍須全程雙手置於方向盤,並為任何相關事故負責。

然而,不論是SAE J3016的Level 2駕駛輔助功能或是Level 3以上的自動駕駛,都可能會發生如同上述事故般無法識別加掛防撞架的蠍子車-即國道工程車,或是撞上交通錐或反光導標的事件。讓自駕車不知所措的,是「不熟悉」的場景。自駕車最終必須能在公路上行駛,而公路是一個有無數種組合的複雜系統,且當中包含許多極端的、罕見的、甚至未知的「邊緣案例」(edge cases)。

針對邊緣案例,美國卡內基美隆大學(Carnegie Mellon University)電子與電腦工程系副教授Phil Koopman以「重尾分布」(Heavy Tail Distribution)來解釋,自駕車道路測試透過機器學習(machine learning)是否可能應付這些邊緣案例,以及可能需要花費的時間及測試里程數。以意外事件的發生概率作為X軸,測試的累計時間為Y軸,得出的會是一條迅速陡降,卻水平延伸很長的一條曲線(長尾)。因為公路存在各種發生概率很低但確實會發生的邊緣案例,導致這條長尾看不到盡頭,然而邊緣案例的訓練與學習,對於自駕車的安全又特別重要,這就讓長尾就變成了重尾。換言之,極端、罕見或未知的邊緣案例,反而佔去了道路測試的大量時間與資源。

Phil Koopman給出結論,認為人類更適合處理這段又長又重的尾巴。或許這也呼應了Level 3的自駕系統為何設計成當功能失效時,會呼叫駕駛人接手。因為自駕系統要執行的動態駕駛任務若可透過電腦運算解決,那麼公路將是個以電腦運算的複雜性理論(computational complexity theory)而言,高度複雜甚至難解的系統。再者,我們要如何得知,靠累積里程數來「硬測」與學習的軟體,已經被訓練得比人類還安全了?

Phil Koopman假設每2億英里發生一件邊緣案例,而自駕車透過道路測試要花3倍至10倍的時間才能學習到這些邊緣案例,這樣算下來的測試里程數最高將達到20億英里。即便對於自駕車研發公司Waymo而言,這個目標都是現行累積里程數的100倍!如果道路測試把全球大街小巷繞了50遍,得到的卻只是能夠處理8、9個重大邊緣案例,或許我們就該想想其他解方,否則可能不會有投資人願意陪著走完這段又重又長的旅程。我國自109年起依據《無人載具科技創新實驗條例》創設監理沙盒(regulatory sandbox),透過有條件地排除法規障礙,允許自駕車在公路進行測試實驗,測試里程的意義及其進步性,實為未來應予關注之課題。

文/王自雄(資策會科技法律研究所主任,法學博士)