與此相對應,2021年8月20日,中國工業和信息化部也發布了《汽車駕駛自動化分級》標準,將于2022年3月1日起實施,詳細分類如圖1所示。
圖1 國標《汽車駕駛自動化分級》
根據這兩大標準,公眾想象中的“坐在車上什么都不用管”的場景要在L5級才能實現。然而當下,即便是行業先驅特斯拉的AutoPilot(自動輔助駕駛)功能也僅屬于L2級,國內蔚來的NOP(領航輔助駕駛)、理想的AD(高級輔助駕駛)以及小鵬的NGP(自動導航輔助駕駛)均屬于L2級。在這一等級,無論何時使用駕駛輔助功能,駕駛員都必須處于駕駛狀態,必須時刻觀察各種情況。其實,這也是目前可以在量產車上搭載的技術上限。
那么,在目前的技術基礎上,如何進一步對智能駕駛迭代升級,達成真正意義上的“車路協同”,從而更好地保障安全呢?
數字交通的場景化特性
交通問題是復雜的系統問題,這已經是行業共識,無論是高速發展的智能交通業務,當前如火如荼的車聯網或車路協同,包括數字交通,都不是單一產品或單一技術能夠覆蓋或解決的。那么,對于復雜的交通問題,是不是就沒有單一的解決之道?根據我們十余年在智能交通領域的項目落地經驗,雖然沒有一招制敵的產品或技術,但可以提煉出一個萬變不離其宗的分析方法——場景化。
首先,視頻是構建交通場景感知的重要技術和方法,卻不存在一款能夠適應全部環境的攝像機產品,也不存在能認知所有目標行為的泛智能。然而,針對細分場景進行業務目標和環境模型的提煉是完全可以做到的,輔以合適的產品以及智能建模,就能達成預期目標,但與此同時也必須放棄非目標的智能或業務。
其次,交通的復雜性在于環境構成的復雜性,以及交通參與者和可預期交通行為的不確定性。對交通場景進行多層次的細分與歸類,能夠成功地抽象出環境相對確定,以及交通參與者和預期行為均可以固化的模型。
我們將目前有待數字化建設的交通場景按照城市道路、城市停車、橋隧、公路共四個大類(初步)細分出十三類場景及45個模型(非完備集)。針對每個場景模型,以全時、全域、全要素感知為建設目標,以必要、有效、集約為建設原則,分析對應場景模型下的交通問題,構建交通評價指標體系(見圖2)。
圖2 數字交通系統架構
“路側境況”感知與多維感知構建數字交通基座
車路協同系統中的幾個構成要素包括智能車輛、高精地圖、路側感知,同時輔以V2X通信,邊緣計算及云計算決策共同協作完成業務落地。我將其抽象為“車-路-況-信-策”五字訣。
車:智能車輛本身具有動力控制系統以及環境感知系統,車輛行駛運行中自身的位置、速度、動力參數等稱之為“車態”,而車載傳感及AI完成車輛所處環境的組織構建,如前后車位置、障礙物、交通標識、信號燈狀態燈稱為“車輛所處情景”,簡稱“車景”。
路:簡單而言,就是高精地圖,與我們日常交流中的路相對應,是一段時間內固化的交通通行基礎,而數字化的路是車路協調系統呈現與決策的基礎。
況:單一時刻、場景的路側感知系統獲取到的交通參與者信息及整體交通狀況描述,是實際交通過程中瞬時情況的數字映射。同一時刻不同空域場景境況的整體綜合描述,構成全域交通資源的利用程度。同一場景在延續時域的境況序列中可以動態呈現周期內的交通效率。
信:通信技術,完成V2V、V2I、V2X之間必要數據的傳輸。
策:云端系統可以收集全時、全域的各類信息,綜合整理,用于交通態勢評估,邊緣系統可以半實時決策并推送交通指令。
境況感知是車路協同系統的第一輸入,也是唯一實時動態數據,其數據的實時性、完備性、準確性將影響最終車路協同系統決策結果輸出的準確性,因此,我們稱境況感知系統為數字交通的基座。
而多維融合才能提升系統運行的有效性。
為實現最大化的數字交通系統效用,路側境況感知系統的建設原則必然是要求“全要素、全空域、全時段”的。
任一場景點位的路側境況感知系統的構成,可能包含視頻、微波、毫米波、激光、RFID、氣象環境等多種傳感器。其中視頻相機、毫米波雷達、激光雷達應該是構建交通境況的主要感知設備:視頻可以進行交通參與者特征的識別判定,尤其是對色彩類信息的感知,但視頻的作用距離有限,且容易受到光線條件的干擾;毫米波雷達可以判定主要交通參與目標,且能夠在較廣闊的區域內進行測速、測距,判定交通行為;激光雷達可實現對更精確(厘米級)目標的感知,但是造價較高。
毫米波雷達與激光雷達技術都無法實現對車輛身份特性的識別,多種感知技術在目標檢測、運動跟蹤、身份識別與標定等方面就具有互補或相斥的情況。對于空域內相鄰場景點位的多個路側境況感知系統,為避免交通對象的跟蹤丟失,建設時需要一定的重疊感知覆蓋。
只有在盡可能廣泛的范圍內實現更為精確的交通境況感知,才能為車路協同系統構建更為準確的數字孿生數據。也只有充分認識不同場景交通參與者交通行為的目的差異,才能對自動駕駛車輛提供更為合理的輔助決策。