機器之心報道
編輯:陳萍、小舟
特斯拉又「翻車」了。
Dan O'Dowd 是嵌入式開發(fā)公司 Green Hills Software 的 CEO,他于去年發(fā)起了一項名為「The Dawn Project」的活動,旨在禁止安全系統(tǒng)中使用不安全軟件,其中就包括對特斯拉自動駕駛軟件的測試。
為了模擬自動駕駛汽車在現(xiàn)實中遇到小朋友過馬路時的反應,The Dawn Project 近日進行了一項新測試,結果表明配備 FSD Beta 10.12.2 自動駕駛軟件的 Model 3 會撞上兒童的人形模型:

測試中 Model 3 劇烈撞擊模型,導致模型組件分離:

項目組測試了 3 次,每次都撞到了人形模型。這似乎已不是偶然事件,說明 Model 3 的 FSD 系統(tǒng)存在安全隱患。
我們來看一下測試的具體過程。
測試過程
為了使測試環(huán)境更有利于特斯拉的 FSD 系統(tǒng),除了車輛和人形模型之外,道路上可能影響測試的其他變量都被移除。
測試車道兩側放置了標準的交通錐,兒童大小的人形模型被放在測試跑道盡頭的中間,就像小朋友要過馬路一樣。測試過程中,專業(yè)測試駕駛員首先將汽車的速度提高到每小時 40 英里。一旦車輛進入測試車道,就改為 FSD 模式,駕駛員不再操作方向盤,也沒有踩油門或踩剎車等動作。

Model 3 FSD Beta 10.12.2 在進入 FSD 模式時的初始速度為 40 英里 / 小時。3 次測試,Model 3 都撞到了前方的人形模型,碰撞發(fā)生時的速度如下表所示


駕駛員的報告顯示:特斯拉 Model 3 FSD Beta 10.12.2 在 FSD 模式下就像迷路了一樣,速度減慢了一點,在撞倒人形模型后又重新加速,撞擊時的速度約為 25 英里 / 小時。
這一結果與馬斯克長期以來聲稱的 FSD 是安全的說法矛盾。馬斯克曾在今年 1 月發(fā)推文稱:「沒有一起事故是特斯拉 FSD 造成的」,而事實并非如此。據(jù)《洛杉磯時報》報道,已經(jīng)有數(shù)十名司機就涉及 FSD 的事故向美國國家公路交通安全管理局提交了安全投訴。
上個月,加州機動車管理局(DMV)還指控特斯拉對其 Autopilot 自動輔助駕駛和 FSD 功能進行了虛假宣傳。
盡管 FSD 聲稱是完全自動駕駛,但實際上它只是作為一個可選的附加組件運行,主要功能是自動改變車道、進出高速公路、識別停車標志和交通信號燈以及停車。該軟件仍處于 beta 測試階段,但已有超過 10 萬個購買用戶,特斯拉通過這些用戶實時測試該軟件,并試圖讓該 AI 系統(tǒng)向經(jīng)驗豐富的駕駛員學習。
原文地址:http://www.myzaker.com/article/62f33bbeb15ec047c601defc