更多

    濫用自動駕駛

    Eric Chong
    Eric Chong
    商業・科技・創業・編輯

    近期全球有多宗涉及「自動駕駛」的意外,有些嚴重至人命傷亡。其中最引人關注是上善若水投資管理公司創辦人林文欽,駕駛中國蔚來電動車發生交通意外離世,據報是啟動自動駕駛惹禍。美國 Tesla 的自動輔助駕駛也因涉及多宗意外,被國家公路交通安全管理局( NHTSA )調查。

    林文欽終年 31 歲,別號萌劍客,生前創辦多間飲食集團,全中國有逾 500 間加盟店。據報,他駕駛蔚來 ES8 電動車時擬啟用 NOP 領航輔助功能駕駛,在瀋海高速涵江段發生交通事故,先撞上維修封路的雪糕筒,再撞向停在路上的高速公路維修車。現場圖片所見,肇事 ES8 車頭嚴重損毁。而他的公司微訊公眾帳戶事後在訃聞內提到,他開啟了蔚來 ES8 汽車「自動駕駛」功能。

    不過,車廠在去年 10 月推出的其實是 NOP 領航輔助功能,並不是真正自動駕駛。該公司所指, NIO Pilot 自動輔助駕駛系統融合車載導航、高度準確地圖,讓車輛在地圖所收錄的高速公路及城市行車天橋等路段,按照導航規劃的路徑自動巡航行駛。換言之,林文欽的意外大可能是誤用技術所致。

    Tesla 遭調查

    蔚來的領航輔助功能令人聯想到 Tesla 的 Autopilot FSD ( Full Self-Driving ), 亦是「自動輔助駕駛功能」,而非外界所認定的自動駕駛。 Tesla 近日也因此遭 NHTSA 調查。

    NHTSA 表示, Tesla 的 Autopilot 或交通警覺巡航控制功能,自 2018 年以來在當地九個州造成 11 宗車禍,主要發生在晚間,以及車禍現場涉及緊急車輛閃燈、道路維修的發光路牌或雪糕筒,撞上停在路上的車輛。

    美國多個汽車機構認同 NHTSA 的調查, 認為 Autopilot 功能早已被車主濫用,導致意外頻生。雖然這功能要求司機在啟動之後,手要保持在軚盤上,並留意路面情況,但在 YouTube 不難找到破解教學影片誤導系統檢查,更有人就此拉低椅背睡覺,有人甚至離開司機位走到後座。

    無論是技術較領先的 Tesla ,還是中國的蔚來,自動輔助駕駛功能仍然是第二級別。根據國際汽車工程師學會( SAE )的自動駕駛分級,第二級只在限定範圍使用,要求司機觀察周邊環境和需要時介入控制。

    外界似乎對「自動輔助駕駛」未夠了解,引致不必要的意外。

    您會感興趣的內容

    相關文章