其實特斯拉4月底開始就沒有雷達了+英特爾也參一咖的純視覺感測可靠嗎? 台灣Model Y可望在8月?

JL wrote:
人類只用兩隻眼睛就達到 Level-5 !


人類駕駛,在法律層面上,並沒有達到車輛自駕等級Level 5要求。
自己開車沒看到前面有牆,撞上去導致身殘或死亡,負責任的是駕駛"自己",責任限縮在"個體"。

但如果是Level 5的自駕車,負責任的是車廠,你覺得會被求償多少錢? 車子一定會被"禁駛",直到問題確認解決,及全部更新、認證後才能再度上路。

你看看飛機的飛控系統出狀況,是怎麼處理的就知道了。
飛機發明之初也是人開的,但飛機的自駕是只用"攝影機"?
aronyang wrote:
純視覺攝影機,其實就是想省點錢而已。



硬體的確是可以省一點,但是只用視覺的軟體與演算法開發,難度與成本反而比光達還高。
lordkon wrote:
Musk佈局,直接拿...(恕刪)


以現階段鏡頭的成品而言我認為不可能!

鏡頭容易因為天候、光線等因素影響成象及判斷。

舉個最簡單的例子,一般駕駛者會因為大雨、大霧、強光等影響視線;鏡頭在自駕車的作用就像人的雙眼,所以需要GPS、IMU、雷達或光達甚至高清地圖等傳感器/圖資協助建置環境資訊。

除非現在的鏡頭強大的到能不受不良天候影響,否則我認為(純鏡頭解決方案)還是不可能。
不管是什麼xx達
跟影像視覺的戰爭還會沒完沒了

不管是在學術界還是產業

我看過信義路自駕巴士的光達三維成像
跟部分的影像視覺成像

基本上對於自駕的這條路上
只有補足了一小塊
光號誌
是要走視覺還是X2V 都還一堆爭議

目前根本不需要去吵什麼自駕LV 幾
能夠降低駕駛疲勞與誤判的輔助駕駛
誰做得比較好,誰的數據比較多
這些應該比較重要
lordkon wrote:
Musk佈局,直接拿掉RADAR,全力發展Pure Vision純視覺影像感測輔助駕駛系統。

Intel子公司MobileEye更是早一步開始測試全視覺感測技術
陸續在以色列耶路撒冷、德國慕尼黑、美國底特律上路測試。你對這項技術有信心嗎?

...............................
沒雷達
不就打了一堆車廠的臉了



不搞雷達 最大原因只是"省錢"
雷達提供的 "距離"偵測 是 所有視覺系統 "無法取代"的 "Z軸"

無論怎麼研發, 2D不會變成 真3D
算出來的Z軸距離都有算錯的可能
高速行駛下 車子遇到意外狀況 物理性的任何作動都需要 "前置時間" (如踩煞車到停止)
沒有"預先"知道 "意外狀況" 再先進的軟體都可能誤判(來不及重新再判斷)
就像這樣

ace ventura wrote:
無論怎麼研發, 2D不會變成 真3D
算出來的Z軸距離都有算錯的可能



建議你追一下每年的 GTC、Siggraphic,十幾年來已經是滿滿的2D to 3D 的論文與實際成果了。
ace ventura wrote:
不搞雷達 最大原因只(恕刪)


撞貨車的這台是有普通雷達的
hahahrhr wrote:
撞貨車的這台是有普通...(恕刪)


因為演算法的問題。

自動駕駛慧將靜止的物體視為地形障礙物,在L2之下還是駕駛人的責任,所以它會選擇Bypass這台貨車。否則當ADAS啟動後你的車隨時偵測到停在路邊的車,柱現等就自動煞停的話,根本開都開不了,遑論輔助了。
ace ventura wrote:
不搞雷達 最大原因只(恕刪)


你有想過你的兩隻眼睛是怎麼判斷物體距離跟立體資訊的嗎?
lordkon wrote:
台灣Model Y可望在8月?


台灣Model Y可望在8月?嗯,2022年8月
關閉廣告
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!