特斯拉自駕系統、超級充電站是傳統車廠難以跨越的高牆嗎?

Tesla 正在設計自己的Dojo Supercomputer ,依據Musk的説法,Dojo和目前坊間最好的設計相比,效率要好十倍左右。
mimipa wrote:
我不認識這個人,不過...(恕刪)


錯誤連連啊

Jim Keller 的確在 ARM 架構上
非常有貢獻
尤其在 gate 上的省電設計
他最大貢獻是讓水果從 Intel 改成 ARM 
他也是第一個讓 ARM 的運算能力追過 x86 架構
ARM 2010 年一直想要往高運算方向走
尤其是 server 但無論 google/FB/AWS 都沒辦法取代 Intel
這也是後來 Intel 從特斯拉挖他走
因為 Intel 無論在省電跟溫度一直跟不上 ARM

不過他在特斯拉並沒有很開心
不到兩年就去了 Intel
這點我就不說了

他是我非常好的朋友跟同事
都是在 IL2 
wavestream wrote:
Tesla 正在設計...(恕刪)


我只能說
五年前就在雲端跑的東西
特斯拉才剛剛起步
wavestream wrote:
Tesla 正在設計...(恕刪)


Dojo 基本上是一個影像處理的 server 
因為特斯拉本身並沒有任何原本 3D 資料
基本上是用 2D pixel 來預測 3D 大小
之後用一連串的 2D 影像還預測物件的方向
(所謂的 4D)

自己想想看預測的資料
永遠不會比實際量的資料準
一個光達就可以實況掃描 4D 資料
基本上就是一個老舊的作法
fatfellow wrote:
錯誤連連啊Jim K...(恕刪)


錯誤連連?

願聞其詳。
fatfellow wrote:
Dojo 基本上是一...(恕刪)

行車模擬不是2D的資料就夠了嗎?不明白為何一定要光達掃描的資料,路上這麼多車不也都是透過視覺在駕駛,重要的是訓練後段的人工智慧辨識跟判斷吧。感覺特斯拉的做法蠻合理的,與其追求小量又詳細的掃描資料,用大量的2D資料來訓練人工智慧好像比較有效
Bazooga wrote:
行車模擬不是2D的資(恕刪)


要全自動自駕就需要CPU/GPU的算力的加持+各種感測器

算力越高=耗電越大
耗電越大=行程越短
更高成本=需要更大又更重電池

拿掉輔助運算單元=降低成本=降低車價=失去自駕
lordkon wrote:
要全自動自駕就需要CPU...(恕刪)

當然實際行車是越多運算跟越多感測器越安全啦
不過我的意思是Dojo用2D的數據來訓練人工智慧感覺還蠻合理的
以數據量還來說應該是遠比精密掃描來的多很多
Bazooga wrote:
當然實際行車是越多運...(恕刪)


No

先從特斯拉的物件判定原理來講起
它是利用 2D 圖像來預估 3D 大小
比如說畫面裡有一個物件是已知大小(比如說美國的 stop sign) 。 它可以利用攝像頭畫素大小來運算出一個物件大小,但如果這個物件對鏡頭不是垂直
這時候就會有誤差
再來特斯拉更進一步利用連續的 2D 影像來預測物件的方向跟速度
這些都是預估,精準度永遠比不上真正 3D 掃描出來的資料
而且更不 efficient

真正在做 L4 
用雲端在模擬的是不同系統整合判斷
比如說當光達,雷達,攝像頭判定不同
到底哪一個是正確的

而特斯拉只是在利用雲端來減少用 2.5D 來預測 3/4D 誤差
這一點基本上所有的 L4 車廠根本不需要運送來預測,因為光達可以同時給正確的 3D (4D-  速度/方向), 雷達可以同時驗證光達掃出的速度跟方向,而攝像頭可以驗證物件。

所以差太多
fatfellow wrote:
No先從特斯拉的物件...(恕刪)

當然光達給出的數據會詳細很多,不過要搜集資料應該要花很多時間,而且實際蒐集資料的時候會遇到的突發狀況也很有限
就算蒐集了很精準的數據,但如果都是平順的行駛,這樣對人工智慧的訓練也幫助不大吧
感覺Dojo用2D訓練的確是有不足的地方,但相較起來用更多元龐大的數據來訓練,對人工智慧的成長比較有效率吧
關閉廣告
文章分享
評分
評分
複製連結
請輸入您要前往的頁數(1 ~ 37)

今日熱門文章 網友點擊推薦!