自駕感測元件的技術進程

自駕感測元件成本與性能,是自駕車研發與量產化過程中的一大重點;同時像光達這樣單價昂貴、大型體積、又需安裝於車身之外的元件,的確是技術單位與造型設計單位需要共同合作克服的挑戰(難怪Tesla完全不考慮光達的自駕解決方案)。在邁向全自駕技術的路途上,身為系統 “眼睛” 的感測元件,絕對是要第一座要越過的技術高山 !

近幾年來在自駕技術研發工作風起雲湧之際,其中負責蒐集行車環境訊息並做數據融合的感測元件,也在科技業的努力下持續提升產品競爭力。感測元件主要分四類:攝像鏡頭、光達LiDAR、雷達、與超音波。除了攝像鏡頭之外,其他三類的運作原理都是發射訊號撞擊物體並反射回來接收,以此測量距離與速度。造價最為昂貴的光達則是進一步藉此建立環境的3D模型,將物體做更為詳細的分類,提供AI大腦做精確的判讀。現今的光達有機械式與固態式兩種,後者因設計簡單無需維護且更便宜,已漸成主流。至於雷達,則在近2年在技術上有大幅躍進,在數據蒐集上更為完整精確;譬如最近的熱門話題4D成像雷達(4D imaging radar ),在距離、方位、速度、甚至高度,都可做全面的數據掌握。其中在物體角度分辨率上,已能精準至0.1度,加上成本比光達低很多,所以在全車感測元件的組合上,4D成像雷達的角色扮演益發吃重。當然,雷達的先天缺點是易受週遭其他雷達發射源與惡劣天候影響,使蒐集數據的精準度大為降低。這個部份在全球研發人員的努力之下,除了研究如何運用AI CNN ( Convolutional Neural Networks ) 卷積神經網路技術來學習處理雜訊,同時更另有跳躍性思考的研發方向 - 量子糾纏  quantum entanglement )。這個遠在1935年由愛因斯坦提出的理論,現在被用於如何藉由發射已糾纏配對的光子來提升雷達蒐集數據的精準度,一旦研究成功,理論上可提升精準度高達500倍。這些正在進行的研發,預計都將需要3年以上方見成效,而自駕技術看來需要更多一倍以上的時間才能成熟落地,所以將來自駕系統的技術推進速度將因這些硬體技術的提升而明顯加快。

   在感測元件硬體技術不斷提升的同時,各種元件所接收數據的融合演算方法也在不斷發展,以提高自駕系統對整個車行環境所認知的精準度與可靠性,進而做出即時而正確安全的決策。說得更直白一點,數據融合就是決定將來自駕技術落地時間點的最關鍵技術之一。技術的挑戰來自於

  • 不同種類的感測元件接收數據的頻度不同。
  • 感測元件接收的數據有可能錯誤或甚至未接收到。
  • 物體在感測元件的接收盲區,而且持續移動中。
  • 感測元件在不同環境下的數據接收品質不一。
  • 感測元件會因使用耐久性的緣故,而造成數據接收品質逐漸變差。

      因為存在有如此多不確定的因素,所以在融合演算法的設計上必須考慮的面向非常複雜,各家自駕技術也就在此處分出高下。雖說挑戰如此艱辛,但在持續的模擬路試與實車路試的反覆驗証調整之下,專家們仍終將摸索出那條正確的道路;但這就看公司主其事者如何通過漫長時程與龐大研發費用的壓力考驗了。