以前Mobileye公司合伙創始人兼首席技術官Amnon Shashua坦率地表示:“當人們提到自主駕駛汽車呼之欲出時,其實他們并不知道說的是啥?!?/span>
不過,Shashua并非悲觀主義者。作為一位企業主管,Shashua表示,“我們不是在等待科學革命,那要等上50年。我們只是在等待一場技術革命。”
開放問題
那么,有哪些開放問題仍然需要技術革命來回答呢?
現在是時候區分“科研項目”(正如Shashua所說的那樣)自主駕駛汽車(在安靜的大街上做YouTube演示)和汽車制造商需要但還未有的商用化自主駕駛汽車了。
正如筆者從Mobileye公司的首席技術官以及眾多學者、行業分析師和從事自主駕駛汽車“感知”工作的企業家那里聽到的那樣,困擾自主駕駛汽車行業的“開放問題”清單已經變得很長了。
有些問題關聯性很強,但從廣義角度看,我們可以把它們分成五類:1)自主駕駛汽車的駕駛行為(在密集交通中的協商);2)更具體更深度的“增強型”學習和邊緣案例;3)測試與驗證(我們可以驗證人工智能駕駛汽車的安全性嗎?);4)安全與防篡改(防止無人駕駛汽車被黑);5)更理性卻重要的“多好算夠好”的問題(因為自主駕駛汽車不會很完美)。
1.駕駛行為
Mobileye公司的Shashua稱之為“駕駛策略”。他的意思是自主駕駛汽車必須“在密集交通時進行協商”。The Linley Group公司高級分析師Mike Demler雖然同意這個觀點,但更愿意使用術語“駕駛行為”。
“通過行為這個術語來表示我們每天一直在做的安全駕駛的各個方面,這是用車管局駕駛員手冊中的規則所無法描述的。”Demler指出。
這些還不是所謂的“偏僻案例”,他認為,“正如我們在最近的優步事故中所看到的那樣,安全駕駛遠不止保持你的車道和觀察速度限制。在信號燈變黃色或視野不清晰時,人們知道(或應該知道)應該很小心地進入十字路口。你可能不會違反任何法律,但向前行進可能也不是什么好事?!?/span>

在亞利桑那州坦佩市發生的優步事故現場。(來源:當地NBC新聞)
Demler補充道:“駕駛行為的其他例子有司機之間常見的互動,不管是好的還是壞的。當你緊跟前車行駛時你會做什么?什么時候你應該減速讓其他車擠進來?如何在科思科(美國科思科連鎖企業)或擁擠的購物中心輕松地找到停車場?”
他表示,“四級或五級汽車也需要做到這一點。所有的演示視頻都顯示的是一輛車在通暢的交通環境下行駛,這是比較容易實現的?!?/span>
駕駛策略或駕駛行為有關系的地方,是在無人駕駛汽車必須能夠在沒有書面規則的地方行駛,“感覺”或本能取代數字式的“書本學習”時。
2.深度的“增強學習”
Demler指出的行為問題大部分是軟件問題。這里的問題不是針對物體檢測的“深度學習”。舉例來說,在計算機視覺中,這種深度學習可以教會機器將一個邊界盒放在道路上的物體周圍。這已經證明是有效的。
但在駕駛策略中,關鍵是深度的“增強學習”。
Mobileye公司的Shashua喜歡舉雙車道并線的例子——此時沒有路權規則。在這個領域中,“我們喜歡使用機器學習,”Shashua表示,“機器可以通過觀察數據而不是由規則編程進行學習。”
為了教授自主駕駛汽車在沒有規則的情形下如何進行駕駛,機器學習是一個理想的工具?!坝^察和收集數據要比理解你想解決的問題的背后的規則要簡單得多?!盨hashua指出。
但這也是機器學習暴露其弱點的地方。
“機器學習基于的是數據統計和數據篩選能力?!盨hashua表示,但它也可能“遇到極端情況而失敗。”
總之,為了教授自主駕駛汽車駕駛策略,機器學習需要收集“稀有事件”(“事故”),這可不是件容易的事。
Vision Systems Intelligence(VSI)公司創始人兼首席顧問Phil Magney相信,人工智能有能力訓練無人駕駛汽車的行為更像是人的行為,例如有時違反直覺地使用“一點點激進的措施實現并道”。
但數據仍然是“鴻溝”,Magney表示:“要想使人工智能被人們所接受,你需要龐大的數據來訓練你的行為模型。你可以出去收集盡可能多的數據,但你仍然不可能測試到所有邊界情況,而且也不可能以安全的方式做到。因此在這種情況下你必須求助于仿真數據。”
事實上,Shashua承認,當你考慮到城市與國家之間不同的“協商文化”的細微差別時就會發現,回避極端情況可能導致更多的不確定性。不同地區和不同文化下每個新版本的駕駛策略都要求收集新的數據。
缺少全球解決方案是開放問題之一,Strategy Analytics公司負責全球汽車慣例的總監Ian Riches指出。
關鍵問題歸結于“如何保證基于機器學習的技術的安全?!盨hashua認為。在他看來,這“很大程度上是一個開放的問題”。 “這是整個行業的薄弱環節?!彼娴?。
3.測試與驗證
Shashua演講稿中沒有提到(針對人工智能駕駛汽車的)測試與驗證問題,但DeepScale公司首席執行官Forrest Iandola時刻關注著這個問題,這是一家2015年成立于山景城的初創企業。
DeepScale公司致力于加速“感知”技術,讓汽車實時理解發生在車輛周邊的情況。
Forrest Iandola
Iandola在學術界早已聲名遠揚。他和加州大學伯克利的研究人員——其中一些人現在已經加入DeepScale——共同開發了一款名為SqueezNet的深度神經網絡模型(DNN)。SqueezNet不是設計去直接用于解決自主駕駛問題的,Iandola透露,但開發人員的目標是“將模型做得盡可能小,同時保持計算機視覺數據集有合理的精度?!?/span>
Iandola相信,四級自主駕駛汽車中的測試質量保證最重要?!皩τ诙?a href="http://www.www-381818.com" target="_blank">ADAS汽車來說,功能性的安全測試也許就夠了。但對于需要能夠完美自主駕駛的4級車來說,你需要滿足除了ISO26262以外的其他自動化測試要求?!?/span>
ISO26262非常適合用于測試發動機控制器,但并不適合測試那些必須看見并持續響應充滿變數的外部世界的傳感器,他解釋道?!皩τ谫|量保證而言,實地駕駛測試并不是一個好的方法?!彼赋觯驗檫@種測試不可能覆蓋所有有難度的物理條件(天氣、地形、交通),這涉及無數難以預測的人類駕駛員行為。
他認為,這正是基于優秀仿真的測試顯得重要的地方。
不過,Iandola認為實地測試也有其價值,“我們最好能夠設計這樣一個系統,每輛自主駕駛汽車內的每個模塊都能向云持續發送具有一定置信度的‘反饋’”。
這樣采用這種系統的自主駕駛汽車就不用傻等著發生碰撞,自己就可以開展自我檢查,他表示。當每個模塊切換到人工駕駛模式時,先要問問自己是否感到有些困惑,或問問此刻有多少置信度。模塊會持續發送這些數據。這類自我檢查有助于數據注解器識別最難案例,并建立質量保證模型,他解釋道。
考慮到必須在自主駕駛汽車中執行的無數測試與質量保證,Iandola也建議說,這個行業需要開發一種可以分解成“多個小模塊的”自主駕駛汽車平臺。集中式的自主駕駛汽車平臺有其優勢,但缺點之一是無法判斷突然出現的某些軟件瑕疵或硬件問題的癥結何在。
Iandola決不是鼓吹汽車行業需要回到汽車內集成不同供應商提供的100多個ECU模塊的時代。他只是在尋找一種更合理的方式來構建由“多個模塊”組成的平臺。
Magney也認為測試與驗證是個大問題。他表示,“我們正處于如何解決3級以上自主駕駛汽車的測試與驗證問題的初級階段。”
如何驗證人工智能駕駛汽車的安全性“仍是一道未解難題”,他表示,“你必須定義好你能夠用于測試汽車工作的流程和架構,但這項工作還沒有完成。”

V模型(來源:Philip Koopman的演講)
另外,Magney強調:“你無法證明為什么人工智能模塊會在傳統功能安全操作條件下發生故障。你需要一個壓縮的測試與驗證過程來測試實際使用和/或仿真過程中的汽車的性能?!?/span>
4.安全和防篡改
首先,今天所有人工駕駛的普通汽車都是不安全的。當汽車變成無人駕駛汽車后,問題的嚴重性更呈指數式上升。
由于無人駕駛汽車中的每個模塊都由計算機控制,整個回路中沒有人工參與,因此計算機就是司機。后座上的乘客只能聽任計算機遇到的任何軟硬件問題發生。由于回路中沒有人類司機,攻擊也變得更加容易,因為沒有手握方向盤的人說,“嗨,發生了什么情況?”
另外還有一個問題。Linley Group公司的Demler補充道,“在最近舉行的會議上,有人提出了一個簡單的情形:某人舉一塊停止標牌將自主駕駛汽車逼停。自主駕駛汽車如何做才能避免被劫呢?”
5.多好才夠好?
有關自主駕駛汽車的一個永恒問題則更富哲理性而不是技術性,而且是問題的核心:多好才夠好?
Gill Pratt是麻省理工學院前教授,目前是成立一年的豐田研究所負責人。他在今年早些時候舉辦的美國國際消費電子展(CES)上的豐田新聞發布會上討論了社會如何感知無人駕駛汽車的安全性。
Pratt表示,在美國,能夠容忍人為失誤的人可以接受每年35,000名交通死亡者。但他問人們能否容忍即使只有一半因自主駕駛汽車造成的死亡數?!皬那楦猩现v,我們認為不能接受。”Pratt認為,“人們對機器造成的死亡數持零容忍態度。”
他這樣解釋Isaac Asimov的第一條機器人規則:“機器人不能傷害一個人,或者通過不動作而允許人類受到傷害?!?/span>
Mobileye公司的Shashua不同意Pratt和Asimov的觀點。他把自主駕駛汽車的安全問題看作類似于氣囊問題?!叭藗冎罋饽铱梢哉壬?,但他們同樣能殺人,”取決于汽車行駛的時間、速度或軌跡。“氣囊殺人的情況每年都有發生,社會已經學會與之共處?!?/span>
如果自主駕駛汽車可以將致死數量從35,000減少到35或者350——假設如此,Shashua相信人們將學會與自主駕駛汽車和平共處。
Strategy Analytics公司的Riches告訴筆者:“沒有人說自主駕駛汽車絕對可靠。然而,作為一個行業和社會,我們還沒能提出一個穩健的衡量標準,來規定什么樣的故障率是可接受的。”
Riches還補充道,“與之關聯的是驗證問題。如果/當我們準確地定義了一個可接受的差錯率,對于用來證明某個解決方案符合必需標準所需的驗證和仿真技術,我們也與之差距甚遠?!?/span>





