“它會識別行人并自動剎車嗎?”
“對,避讓這些都是基礎(chǔ)操作”
(資料圖)
“啊”
上一秒,阿維塔的銷售還在向客戶宣傳來自華為ADS的城市NCA功能之強,能夠無保護(hù)右轉(zhuǎn)、能避讓道路上行人。結(jié)果下一秒,就險些跟橫穿馬路的自行車來了一個“親密接觸”。
事后,阿維塔回應(yīng)稱:“當(dāng)日在城區(qū)NCA演示中,突然沖出橫穿馬路的騎車人,以S形路線自右向左橫穿,駕駛員緊急接管剎停。后臺數(shù)據(jù)顯示:智駕系統(tǒng)檢測到碰撞風(fēng)險早于人類駕駛員0.248秒,功能觸發(fā)與人類駕駛員剎車動作僅相差0.047秒,智駕人駕幾乎同時介入,果斷避免事故發(fā)生。”
好在,阿維塔官方及時作出了回應(yīng)。否則,這又要被網(wǎng)友們解讀成“剎車失靈”了。
在特斯拉的慫恿下,城市NOA導(dǎo)航輔助駕駛功能,已經(jīng)悄悄地成為了中國車企角逐智能駕駛賽道的關(guān)鍵點。阿維塔11所提供的城區(qū)NCA,亦是NOA功能中的一種,與蔚來的NOP、小鵬的NGP、理想的NOA如出一轍——他們,正在圖讓人工智能駕駛著車輛在城市道路上行駛。
特斯拉FSD:我?guī)愠?/p>
然而,車企卷城市NOA功能,就像科技和互聯(lián)網(wǎng)公司卷GPT一樣。好像你不摻和一腳GPT和大模型,就是沒有AI人工智能積累的表現(xiàn)。但兩者不同的是,如果GPT出現(xiàn)了失誤,無非就是多一段笑話,而城市NOA失誤可真是要出人命的。
為了賣車,學(xué)會了說謊
“如果你想要研究AI是如何出錯的,獲得一筆金錢索賠,并且一有機會就試圖殺死你,那就買輛特斯拉吧?!边@是蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克的最新觀點。作為兩輛特斯拉Model S車主的沃茲尼亞克,曾多次公開表示:他被特斯拉所宣揚的自動駕駛能力誤導(dǎo)了。
“早些時候特斯拉放出了一些全無人駕駛的視頻,給車主產(chǎn)生了混淆。讓車主們以為,我買了特斯拉這個車就能夠這么運行,然后放出來一些Demo?!蹦匙詣玉{駛業(yè)內(nèi)人士告訴虎嗅,國內(nèi)車企早些時候放的,在上海街道中行駛的Demo就給人產(chǎn)生同樣誤導(dǎo),讓用戶誤以為它的ODD(Operational Design Domain,運營設(shè)計域)覆蓋范圍就是這么大。
回到文章開頭提到的場景。
根據(jù)視頻信息,這臺阿維塔11上城區(qū)NCA(Navigation Cruise Assist)智駕導(dǎo)航輔助處于激活狀態(tài)。當(dāng)時自行車從馬路右側(cè)以S形路線駛出,車輛有適當(dāng)?shù)目厮俚⑽瘩R上剎車。最后,是在距離自行車較近的距離下,駕駛員和智駕系統(tǒng)幾乎同時執(zhí)行了剎車動作,所幸沒有造成碰撞。
顯然,用戶實際使用場景,遠(yuǎn)比測試車跑過的場景更加復(fù)雜多變。
比如,有媒體進(jìn)行場地“自行車鬼探頭”測試,阿維塔11不僅輕松避開了自行車,并且還在避開后加速,迅速駛回自己原本的道路。這一系列操作,堪稱“天花板”級的避讓。但實際用戶遇到類似場景時,有諸多外部因素會導(dǎo)致系統(tǒng)處理結(jié)果有差別。
阿維塔在《車主指南》的注意事項中,也明確寫到了:“禁止在可能有行人或非機動車出現(xiàn)的路段使用NCA智駕導(dǎo)航輔助。”這意味著,車主需要在使用過程中保持更高的警惕性。以當(dāng)前的法規(guī)條件,一旦真撞上了行人和非機動車,駕駛員需要對車輛行為負(fù)責(zé)。
“為什么說現(xiàn)階段的輔助駕駛更難,它解決的不是替你駕駛的問題,而是解決幫你駕駛的問題。所以,它跟無人駕駛的難度相比是差不多的?!?/p>
車控合伙人、戰(zhàn)略主理洪澤鑫告訴虎嗅,車企和技術(shù)供應(yīng)商,需要先把自己的能力邊界給明確清楚。明確好不能掌控的場景,就提前告訴駕駛員接管,或者明確一種機制來避開不可控場景。
特斯拉FSD走得很冷靜
然而,為了標(biāo)榜更廣的覆蓋、更多的功能,車企會將ODD設(shè)計運行域的邊界模糊化。因為,一旦ODD限制越嚴(yán)格,就意味著自動化系統(tǒng)駕駛功能的可用性越差。
ODD運行設(shè)計域的定義來自SAE J3016——“特定駕駛自動化系統(tǒng)或其功能專門設(shè)計的運行條件,包括但不限于環(huán)境、地理和時間限制,和/或某些交通或道路特征的存在或缺失。”而只有當(dāng)全部條件都滿足的時候,該自動化系統(tǒng)才能保證正常運作。相反,欠缺任何一個前提條件,該系統(tǒng)都有可能出現(xiàn)故障,這種情況下就要采取緊急停車措施或是駕駛員手動接管。
這就導(dǎo)致了一個行業(yè)普遍現(xiàn)象出現(xiàn)——原本只能在50%的場景做到100分,但車企現(xiàn)在硬要在100%的場景里干50分的事。
系統(tǒng)的上限,不該是生命的底線
“擦邊球”打得好,絕對不是好的輔助駕駛。但邊界劃定得足夠清,必然是對生命安全負(fù)責(zé)任的輔助駕駛。這一點,系統(tǒng)復(fù)雜度更高的航空領(lǐng)域,可以佐證。
“Autopilot”一詞,是特斯拉從航空領(lǐng)域引入到汽車行業(yè)的,并將其翻譯成“自動駕駛”。但Autopilot曾闖下了不少大禍,迫于壓力,特斯拉從2016年8月16日以后,將中國官網(wǎng)的介紹從“Autopilot自動駕駛”改成了“Autopilot自動輔助駕駛”。
本質(zhì)上,航空領(lǐng)域的Autopilot,與汽車上的Autopilot有著異曲同工之妙——它們都不能被稱之為自動駕駛,僅僅是起到輔助作用。
“男人減速帶”之 A350駕駛艙
比如,你開著車上了高速或者快速路,打開車道偏移輔助功能,它就類似飛機上的LNAV/VNAV;當(dāng)你加速到120km/h并打開定速巡航功能,它就類似于飛機上的Autothrust;再則,車上的盲點警示系統(tǒng)也會提醒你左右有沒有來車,類似飛機上TCAS。
那么,飛行員在激活A(yù)utopilot,是不是可以去睡覺,或者去跟空姐聊天呢?
以前的人們,確實是這樣想的。《連線》雜志曾在2012年刊登一篇報道,作者寫道:“自動駕駛是一種電腦裝置,能夠獨立操控一架787,無須人力支援,但我們還是不理性地在駕駛艙塞幾個人類機師當(dāng)保姆,只為了以防萬一?!?/p>
但歷史上有諸多慘痛案例告訴我們,讓飛機完全自動駕駛是一件危險的事情。比如”法航447航班“事件——2009年6月1日,一架從巴西里約熱內(nèi)盧飛往法國巴黎的航班在大西洋上空失事,當(dāng)時機上216名乘客和12名機組人員全部遇難,這是法航運營史上最嚴(yán)重的空難。
法國民航局調(diào)查認(rèn)定,事故的直接原因是機身外部的空速管因結(jié)冰失靈,導(dǎo)致飛機無法判斷航速和高度;自動駕駛系統(tǒng)發(fā)生故障,即使切換手動駕駛也回天乏術(shù),隨后飛機墜海。然而在故障出現(xiàn)時,機長在輪休,副機長缺乏應(yīng)對危機的經(jīng)驗。
一趟航行中,情況時時刻刻變化,復(fù)雜、流動,絕對不是提前寫死的。所以飛行員必須隨時下決定,每個決策都事關(guān)重大。雖然有各式各樣的協(xié)定、檢查表、步驟,寫成白紙黑字,機組成員仍舊必須依據(jù)主觀判斷,下達(dá)成百上千個指令。
譬如,避開堆疊起來的積云、解決機械問題等等,不勝枚舉。即使是在最最普通的一趟航行,駕駛艙也會忙到讓你驚訝——而且,這還是開著自動駕駛的情況下。
飛機上的自動駕駛更應(yīng)該叫”自動飛行系統(tǒng)“,與其他設(shè)備一樣是輔助機組成員使用的工具,你還是得告訴它該做什么、何時做、如何做。因為自動駕駛系統(tǒng)綜合了多種功能,可以調(diào)整速度、推力、水平和垂直航向,這些功能全都需要組員定時輸入指令,才能妥善運作。哪怕是設(shè)定自動爬升或下降,也至少有其中不同的方式,需要視情況判斷采用哪一種。
所以,真正負(fù)責(zé)任的汽車自動駕駛系統(tǒng),就應(yīng)該像飛機的Autopilot一樣,明確好自己的能力邊界,并且干好自己“輔助”的活。
特斯拉沒做好,不代表它是垃圾
“現(xiàn)在所謂的自動駕駛,最大的難點都不在于技術(shù),而是在于交互的設(shè)計上,怎么樣讓人知道它的邊界在哪里?”洪澤鑫向虎嗅分析道。
比如最近,小鵬和理想都出現(xiàn)了超越能力邊界的危險場景——在NOA導(dǎo)航輔助駕駛開啟后,車輛原本設(shè)定的邏輯是會主動超越慢車。但從第一車道自動變道到第二車道時,往往第三車道車輛也同時變道到第二車道。
一位小鵬G9車主在高架橋上就遇到了這一場景,駕駛員及時掰回方向盤,才避免了兩車側(cè)面相撞。小鵬自動駕駛產(chǎn)品總監(jiān)劉毅林表示:“隔道車輛同時變道到目標(biāo)車道,一代NGP處理的不夠擬人,基于BEV的全新版本的NGP在路上了,變道能力和博弈上會有大幅提升?!?/p>
從車機屏幕上可以看到,直到駕駛員介入前的那一刻,系統(tǒng)都并未給出相應(yīng)的提醒。駕駛員完全需要憑自己的經(jīng)驗和判斷能力,來選擇是否介入接管。
下面這臺理想,所面臨的場景則更加危險。因為NOA設(shè)定的巡航速度達(dá)到了130km/h,右側(cè)白色福特SUV以更高的速度接近視頻車。大概率是駕駛員介入了接管,NOA這時才降級為定速巡航,隨后駕駛員踩下制動,定速巡航完全退出。
對此,理想智能駕駛產(chǎn)品經(jīng)理趙哲倫表示:“我們正在做的動態(tài)BEV算法、DenseTNT 預(yù)測算法,規(guī)劃算法的重構(gòu),對這類交互博弈場景的幫助會非常大?!?/p>
事實上,哪怕是這一場景做不到,車主也是感知不到的。洪澤鑫告訴虎嗅,“所以,先是車企自己要有ODD的界定,然后更重要的是說,怎么把邊界更好的呈現(xiàn)給用戶?!?/p>
在體驗過市面上大多數(shù)城市/高速NOA產(chǎn)品之后,我愿意將人機共駕的交互分為兩類:一種是,渣男式交互,出了問題不負(fù)責(zé)、不關(guān)心;另一種是暖男式交互,想方設(shè)法為你好。
所謂的“渣男式交互”,主要代表是以特斯拉為首的新勢力陣營。
表現(xiàn)一,先是給你秀肌肉。它們普遍會用車機來展現(xiàn)系統(tǒng)所感知到的周邊環(huán)境,并將行人、非機動車等信息顯示的豐富視為實力的象征。雖然這可以大大增強駕駛員的信任感,但真要到了危急時刻,環(huán)境顯示再豐富也不代表一定能剎住車。
僅用一條“藍(lán)線”來表示FSD狀態(tài)
表現(xiàn)二,關(guān)系模糊不清。它們普遍會用藍(lán)色的指引線和小圖標(biāo),來告知駕駛員車輛是出于被接管的狀態(tài)。但對于定速巡航、車道保持、導(dǎo)航輔助駕駛的切換過程,有的產(chǎn)品過于簡單粗暴。這很容易導(dǎo)致駕駛員,對當(dāng)前系統(tǒng)運行狀態(tài)出現(xiàn)誤判,甚至?xí)讯ㄋ傺埠疆?dāng)成NOA去開。
表現(xiàn)三,出了問題不負(fù)責(zé)。它們在遇到系統(tǒng)無法應(yīng)對的場景時,會立刻彈出“請接管方向盤”之類的警示,或者立刻退出輔助駕駛狀態(tài)。因為在“車主須知”,他們早已將自己的責(zé)任撇的一干二凈。出了事的時候,都是你駕駛員不小心。
所謂的“暖男式交互”,主要也有三個層面的表現(xiàn):
表現(xiàn)一,時刻同步自己的狀態(tài)。
像智己汽車在NOA功能上,增加了”信任增強功能“。在NOA激活后,儀表會為駕駛員傳達(dá)智能駕駛?cè)蝿?wù)的信任指數(shù):3級表示系統(tǒng)能處理成功,2級邀請駕駛員注意力,1級則需要駕駛員時刻關(guān)注路況。這樣一來,系統(tǒng)就可以及時地告知駕駛員,其對于當(dāng)前環(huán)境的處理能力。減輕駕駛員焦慮的同時,提高系統(tǒng)的安全性。
表現(xiàn)二,以各種方式支持你。
像凱迪拉克在Super Cruise功能中,引入了方向盤燈帶提醒、座椅振動和聲音警示。當(dāng)注意力系統(tǒng)判斷駕駛員視線沒集中在前方道路,方向盤燈帶將會以綠色燈帶閃爍方式進(jìn)行提示。如果還接管車輛,則以紅色燈帶閃爍、座椅振動和聲音警示。最后再不接管,車輛會自動停下,并聯(lián)系安吉星OnStar人工坐席尋求幫助。
而座艙聯(lián)動的交互方式,在后續(xù)還有迭代空間。從行業(yè)的解決方案來看,中央集成式架構(gòu)能夠解決現(xiàn)在跨控制域通信延遲的問題。艙駕融合之后數(shù)據(jù)更加集中,減少軟件代價的同時,降低傳輸同步代價。英偉達(dá)Thor芯片、黑芝麻智能武當(dāng)C1200等芯片,都是為了把智駕信息更好地用座艙去呈現(xiàn)給駕駛員,取代以前單一的車機顯示。
表現(xiàn)三,負(fù)責(zé)到底。
全球首個獲得L3自動駕駛認(rèn)證的奔馳,最早地喊出了“你撞了我來賠”的口號。在條款中,奔馳明確寫到——基于產(chǎn)品和生產(chǎn)者責(zé)任,汽車制造商對因產(chǎn)品缺陷造成的損失承擔(dān)相應(yīng)責(zé)任。這一準(zhǔn)則同時適用于可以實現(xiàn)有條件自動駕駛和不具有自動駕駛相關(guān)功能的車輛。
當(dāng)后方有救護(hù)車駛過時,奔馳L3會提醒駕駛員接管
寫在最后
即便是技術(shù)不成熟、覆蓋場景不全面、接管和預(yù)警機制不及時,城市NOA導(dǎo)航輔助駕駛功能“沖”上大街小巷的進(jìn)程也不會有絲毫的放緩。因為,“狼”要來了。
5月12日,上海市經(jīng)信委智能制造推進(jìn)處的消息,下階段,上海將進(jìn)一步深化與特斯拉的合作,推動自動駕駛、機器人等功能板塊在滬布局——這似乎意味著,特斯拉FSD(完全自動駕駛)即將進(jìn)入中國市場。
當(dāng)不成熟的AI,遇上不熟練的駕駛員,碰到不易應(yīng)對的場景,那下一次所謂的“剎車失靈”也快了。