keroro026 wrote:
Tensor core...(恕刪)
莫非我的Titan V 640個 tensor core是假貨!? RTX反而可以比Titan V遊戲效能更高15%!? 我是白天裡見鬼了!? tensor core對遊戲有幫助,是我有錯覺嗎?
要說是RT core搭配 DirectX 12的Ray Tracing可以接受。(但既然是可以由Tensor Core轉成RT Core,那Titan V不能轉嗎?),之前geforce game driver讓Titan V支援DirectX 12的Ray Tracing是在莊孝維?
**如同之前網友認為:這是黃一刀的產品分級策略高明,我也贊同。認為黃一刀吃相難看,只是我個人的觀點。
foxman-tw wrote:
RT core只是由Tensor core中挪出來用而已
請問你哪隻眼睛看到RT core和Tensor core具有相同架構? Tensor core是專門用來運算matrix multiplication的簡單運算單元,RT core是設計用來運算比較複雜的 Bounding Volume Hierarchy (BVH) traversal 和 ray/triangle intersection testing (ray casting)
Nvidia Turing Architecture 白皮書
Turing架構除了傳統的浮點運算單元也增加了Integer processing unit,傳統的GPU假設遇到Integer計算必須把整個浮點運算停下來,Turing架構允許兩者同時並行,根據一些遊戲開發者的說法這可以讓一些本來必須交由CPU處理的計算交給GPU處理,Turing架構對於Computing的增強也對ray tracing的採樣速度具有正面幫助
foxman-tw wrote:
之前geforce game driver讓Titan V支援DirectX 12的Ray Tracing是在莊孝維?
Volta可以以六分之一的速度硬跑ray tracing不代表Turing架構dedicated hardware不存在或沒有存在的必要,real-time ray tracing早就可以跑出來了,只不過效能異常差勁而已,3D遊戲的權威John Carmack在2011年的訪問就提到曾經用Nvidia Femi架構的GPU在一個純ray tracing的Demo中跑出720p 60fps的數據,但如果用傳統Rasterization繪圖同個場景可以跑到1000fps
foxman-tw wrote:
瘋推一時的Titan V 如今何在?
Tensor core 直至Turing出現為止一直以來的主要用途眾所皆知都是深度學習,Titan V主要都是在強力廣告它的深度學習效能,連遊戲的GTX品牌名稱都去掉了,如果你的專業用途並非Deep learning還跑去買那麼貴的特定用途顯卡,那就是一個願打一個願挨怪不得人,深度學習對於很多產業有龐大的淺能,你用不到不代表別人用不到
foxman-tw wrote:
Tensor core只能在特定的深度學習軟件中使用,在遊戲、作業系統、CAE/CAM工程軟體中是如闌尾般的存在,沒有屁用!!為了一個闌尾要花4萬元的代價,真是不值得!...... RTX反而可以比Titan V遊戲效能更高15%!? 我是白天裡見鬼了!? tensor core對遊戲有幫助,是我有錯覺嗎?
在Turing架構Tensor core對遊戲效能當然有幫助,主要是透過DLSS這個功能,根據白皮書DLSS有兩個模式,第一個模式是用於取代傳統Anti-aliasing,反鋸齒Anti-aliasing對於遊戲畫面有很重要的影響,反鋸齒對於消除畫面中的缺陷有無可取代的作用,反鋸齒不只有是消除多邊形邊緣的鋸齒,還可以避免很多惱人的畫面缺陷,例如過於細緻的材質在畫面移動時會有嚴重閃爍的情況,傳統的反鋸齒有很多方式,其中效果最好的當然是超採樣(Super-Sampling),例如原本1080p的畫面你用4K, 8K 甚至更高畫素去跑然後取樣成1080p畫面,可以達到非常好的效果,但是很明顯的需要的運算效能會指數級的成長,對於一般用途是不切實際的。所以為了節省效能出現了其他很多利用其它(偷吃步)的方式來試圖達成反鋸齒的效果的畫面處理方式,但幾乎所有的方式都有其缺陷,不是無法涵蓋所有範圍(例如利用邊緣偵測來只對邊緣超採樣無法處理具有透明度的材質,並且也還是會增加處理效能的需求),有些會造成新的畫面缺陷(例如把邊緣模糊化,或者是把前面幾禎的畫面疊在一起的方式;速度很快但皆會造成材質模糊甚至變形和鬼影)。由於細緻的材質所造成的閃爍,結果解決閃爍卻把材質模糊化也有點本末倒置。DLSS 2X透過深度學習根據64倍的超採樣畫面來學習,可以把原本畫面解析度的畫面放大到畫質接近64倍的超採樣的畫面來進行反鋸齒,由於是由專門的硬體處理(Tensor core)與繪圖部分獨立,具備了高品質和高效能兩者兼得的優點,並且還可以省掉傳統反鋸齒的處理所需的效能
第二種方式則是利用相同的超採樣方式但這次是把低解析度放大到目標解析度,舉例像是GPU本身用1440p繪圖,再利用DLSS讓最終輸出成為4K,因為硬體其實跑的是1440p當然可以跑得比真正4K還要快,而且效果照理來說也不會產生現在很多家用主機(PS4 PRO, XBOX ONE)所採用的Checkerboarding upsampling把低畫素強行提升到4K所造成的各種畫面缺陷,根據白皮書DLSS可以讓GPU使用原本一半的繪圖效能來達到相同品質的畫面。
而且DLSS不需要開發者耗費大量研發資源就可使用,因為幾乎大部分工作主要都是由Nvidia方面負責,開發者只需要提供Nvidia 64倍的超採樣畫面,深度學習模型訓練以及下放到驅動程式皆由Nvidia處理,對於普及率有很好的前景
至於Nvidia要不要下放DLSS到Volta目前還是未知數,並且Turing 和Volta 的Tensor core 架構也略有不同Turing 的Tensor core增加了對INT8和INT4精度的運算支持,還有DLSS本來就是遊戲面向的功能,沒有半款Volta產品是屬於GTX遊戲卡,所以就算架構相容也沒有對於深度學習卡下放的必要性
至於Turing 除了遊戲以外的價值,Render farm由於傳統GPU對於ray tracing精度不佳一直以來主要都是採用CPU運算,Turing架構所帶來對於ray tracing精度和速度的加速以及GPU性能功號比的優勢,讓Nvidia現在可以進入總價值數千億美元的CGI產業(包括電視電影、遊戲設計、建築設計......等等),很多3D繪圖軟體也表示支援RTX了,還是同一句話,你用不到不代表別人用不到
kkk123kkk123kkk wrote:
請問你哪隻眼睛看到RT...(恕刪)
謝謝你詳盡的分享^^,我在github上有找到不同顯卡的深度學習跑分比較,供有興趣的人參考。
話說希望新系列的顯卡能提供有志向相關領域發展的新手一個較經濟的選擇(Volta系列好貴....)
音樂使人癲狂,荷包抓狂......
小惡魔市集
關閉廣告