看了新款的iPad Pro,突然理解為什麼iPhone11明明只有兩的主鏡頭,卻要設計的跟三鏡頭一樣有正方形相機區域

lfjadsflk wrote:
有支援是不意外的畢竟(恕刪)

所以是利用量測距離資訊,直接判別物體遠近

避開直接用全圖圖像素去分割分別物件的大量處理

取其低運算量、速度快的優勢

是這樣理解嗎?
一切有為法,如夢幻泡影,如露亦如電,應作如是觀
liangcase wrote:
所以是利用量測距離資訊,直接判別物體遠近

避開直接用全圖圖像素去分割分別物件的大量處理

取其低運算量、速度快的優勢

是這樣理解嗎?(恕刪)

大方向算是~

這如果是用CPU+GPU去算,需求的運算量很驚人...
但如果是用專用晶片去針對特定主題(例如:圖像辨識...)
這時候就是類神經網路的運算晶片發揮的主場...
也是A13晶片唯一有可能贏過A12X/A12Z的地方...

但是由於新iPad Pro採用完全不同的方法(ToF Lens)去辨識,
也連帶AR的計算方式有著本質的不同...
不採用A13的理由是可以理解的...

不過我個人是覺得其實應該是A13X根本來不及開發,所以未來會直接跳A14X吧?
(因為去年Apple新舊首席晶片設計師換人的關係...)
文章分享
評分
評分
複製連結

今日熱門文章 網友點擊推薦!