特斯拉自動駕駛未剎車撞鹿,行人安全堪憂

自動駕駛汽車或許看起來頗具未來感,但全球的汽車公司都在努力讓其成爲人類社會的常規組成部分。很容易明白自動駕駛汽車是如何能讓您的生活更便捷的。但這種自主技術也引發了關於道德和安全的嚴重問題——即在危險情況下,汽車優先考慮誰的安全?我們真的能相信一個軟件程序來做出生死攸關的決定嗎?

最近,一位特斯拉司機分享了一次經歷,這無疑引發了一些嚴重的安全問題。用戶@TheSeekerOf42 在他的特斯拉處於“完全自動駕駛”模式時在路上撞到一隻鹿後發佈了照片和視頻。車輛受到了一些輕微的外觀損壞。更令人擔憂的是,他所分享的視頻顯示,自動駕駛車輛在接近鹿時甚至都未減速,碰撞後也未停車。

“完全自動駕駛系統沒有停下來(原文如此),即便全速撞到鹿之後,”@TheSeekerOf42 在 X.com 上寫道。“每天都有十幾次錯誤停車,之後發生這種情況真是個巨大的意外!”

在碰撞前未減速,碰撞後也未停車,這對於自動駕駛汽車來說似乎是一個相當大的安全問題。但這是軟件中的錯誤範例,還是特斯拉自動駕駛軟件的預期工作方式?讓我們來看看。

大多數自動駕駛汽車使用一系列傳感器、攝像頭和雷達技術來導航道路並檢測車外的事物,例如障礙物和路標。該軟件接收來自其攝像頭和傳感器的全部輸入,並使用該信息在路上做出實時決策。

特斯拉的自動駕駛技術存在一定差異,因爲其汽車僅使用攝像頭導航,選擇摒棄其他系統所採用的激光雷達和雷達掃描儀。專家表示,這可能會引發重大問題,尤其是當特斯拉的自動駕駛軟件遭遇不熟悉的狀況時。

卡內基梅隆大學電氣與計算機工程副教授菲爾·庫普曼(Phil Koopman)告訴《華爾街日報》(WSJ):“這些系統容易出錯的情形,例如它未曾在翻倒的雙層拖車的圖片上接受訓練——它壓根不知道那是什麼。一個人顯然會說路中間有個大物件,但機器學習的工作方式是基於一堆示例進行訓練。如果它碰到沒有衆多示例的事物,它或許根本不清楚狀況。”

自動駕駛汽車有可能完全消除人類駕駛中的錯誤。計算機程序不會感到疲倦,在漫長的一天工作後也不會更情緒化地駕駛,並且不會因短信而分心或選擇新的播放列表。但它不能做的另一件事是做出道德決策。

那麼,當軟件面臨不可避免的事故並且必須在兩個或更多人的安全之間做出決定時會發生什麼?不幸的是,這個問題的答案仍然相當模糊。以@TheSeeker420 這個案例來說,特斯拉的軟件似乎沒有做出任何轉向或減速的努力,把乘客的安全置於避免外部障礙之前。

但倘若障礙物是人,而非鹿,那又會怎樣?軟件的反應會有所差異嗎?這些是自動駕駛汽車所帶來的一些難題,其所呈現出的安全和倫理困境,或許在自動駕駛技術進一步發展之前難以解答。無論情況如何,倘若汽車公司期望大衆將生命交付給自動駕駛計算機程序,那就必須在安全方面做到極度透明和誠實。