首先,RTX並不是沒有技術儲備的新技術,在做電影特效、遊戲做CG、設計師做效果圖之類的領域,其實已經很成熟了,只不過運算量一直做不到實時而已。天天做吊炸天的CG挫成狗的實機忽悠人的遊戲廠商這方面,說沒有點技術儲備那是騙人的。
實際上RTX這東西,在主機上可能更多的運用於開發上。
現在很多效果亮眼的遊戲畫面,那些近乎靜態的場景,其實是預先渲染好變成貼圖,比如地面的影子其實是直接印在地面貼圖上的,或者是一個跟著主角移動的半透明GIF那樣的玩意。
開發者有了實時光線跟蹤的的卡,可以在開發用的電腦上實時的看到結果,做這些會非常方便。——想象一下平常用PS修圖或者用WORD寫點東西,調一下要卡1小時才有結果,那效率能高就奇怪了。
然後呢,普通顯示卡並不是不能做實時光追,只是比起有專用電路的卡,效能低幾倍而已,甚至犧牲效率的話CPU都能做。那麼對於沒法“硬”支援實時光追的使用者,”可以以“軟”的方式用上(記得以前各種影片格式,有軟解碼硬解碼這些東西麼?)。
然後集中在少數幾個人物/場景上,配合預先渲染好的靜態場景,讓人有很吊的感覺,拿來宣傳和騙群眾眼睛也就夠了。——實際上有即使沒有"硬"實時光追,一些遊戲已經用上了,我記得以前玩VR的時候,那個泰坦尼克榮耀,靈魂守衛幾個畫面質感非常真實,能讓1080ti都卡成PPT的遊戲,個人懷疑就是用軟的方式做了實時光線跟蹤。
開發上也沒有想象中那麼難。
對大多數開發者來說,他們操作的還是同樣的遊戲引擎介面,都是封裝好的,直接呼叫就行,是軟是硬,開不開RTX,都不用他們管。
RTX的實現只是在引擎的底層,如果顯示卡支援,那麼以硬的方式實現,不支援就用軟的方式實現,這是寫引擎碼農的工作,如果是一些中小公司,用的是那幾個通用3D引擎,更是不用擔心這些大牌通用引擎不支援。
當然如果實在效能不行,軟的都不行,得砍砍砍縮水,這是測試組的工作,開發者把選項預留了就行。
其實除了光追之外,那個AI抗鋸齒也是很有意思的一個事情。不是指抗鋸齒本身,而是可以實時用AI對畫面進行處理這一點。
現在很多網站或者APP都能玩AI影象處理,應該不少人玩過,可以把圖片整個換一個畫風/上個美顏。
如果新顯示卡可以實時用AI對畫面處理,那麼可以像著色器之類的方式一樣,很輕易的實現一些原本不容易實現的效果,比如各種梵高畢加索油畫、又比如三渲二等等。
甚至乎,一些動手能力強的玩家可以自己訓練AI,以MOD形式共享,真的一千個人眼裡有一千種畫風。
其實我個人更期待實時光追+VR,那是真有真實世界的錯覺,並且個人是體驗過的類似效果的。
儘管理論上來說,4K 90hz甚至追求8K的VR效能要求應該非常恐怖,但VR有一個非常獨特的縮水方法,是眼球跟蹤,人類實際上能看清楚的(或者大腦能仔細處理的),只有注視點中心範圍,並且深度也只有一定範圍(你可以2隻手指放在眼前,一隻手指慢慢遠離,很快另外一隻手指就會看不清了)。
所以可以把實時光追的範圍限定在人注視的物體上,非注視物體假一點無所謂,只要視線移過去的時候立即變真就行了(甚至這樣人類反而覺得更真實,因為人類看東西都是有景深模糊的)。
在螢幕上,質感好一點壞一點,影響沒那麼大,而對VR來說,那帶來的就是真實世界的錯覺。
首先,RTX並不是沒有技術儲備的新技術,在做電影特效、遊戲做CG、設計師做效果圖之類的領域,其實已經很成熟了,只不過運算量一直做不到實時而已。天天做吊炸天的CG挫成狗的實機忽悠人的遊戲廠商這方面,說沒有點技術儲備那是騙人的。
實際上RTX這東西,在主機上可能更多的運用於開發上。
現在很多效果亮眼的遊戲畫面,那些近乎靜態的場景,其實是預先渲染好變成貼圖,比如地面的影子其實是直接印在地面貼圖上的,或者是一個跟著主角移動的半透明GIF那樣的玩意。
開發者有了實時光線跟蹤的的卡,可以在開發用的電腦上實時的看到結果,做這些會非常方便。——想象一下平常用PS修圖或者用WORD寫點東西,調一下要卡1小時才有結果,那效率能高就奇怪了。
然後呢,普通顯示卡並不是不能做實時光追,只是比起有專用電路的卡,效能低幾倍而已,甚至犧牲效率的話CPU都能做。那麼對於沒法“硬”支援實時光追的使用者,”可以以“軟”的方式用上(記得以前各種影片格式,有軟解碼硬解碼這些東西麼?)。
然後集中在少數幾個人物/場景上,配合預先渲染好的靜態場景,讓人有很吊的感覺,拿來宣傳和騙群眾眼睛也就夠了。——實際上有即使沒有"硬"實時光追,一些遊戲已經用上了,我記得以前玩VR的時候,那個泰坦尼克榮耀,靈魂守衛幾個畫面質感非常真實,能讓1080ti都卡成PPT的遊戲,個人懷疑就是用軟的方式做了實時光線跟蹤。
開發上也沒有想象中那麼難。
對大多數開發者來說,他們操作的還是同樣的遊戲引擎介面,都是封裝好的,直接呼叫就行,是軟是硬,開不開RTX,都不用他們管。
RTX的實現只是在引擎的底層,如果顯示卡支援,那麼以硬的方式實現,不支援就用軟的方式實現,這是寫引擎碼農的工作,如果是一些中小公司,用的是那幾個通用3D引擎,更是不用擔心這些大牌通用引擎不支援。
當然如果實在效能不行,軟的都不行,得砍砍砍縮水,這是測試組的工作,開發者把選項預留了就行。
其實除了光追之外,那個AI抗鋸齒也是很有意思的一個事情。不是指抗鋸齒本身,而是可以實時用AI對畫面進行處理這一點。
現在很多網站或者APP都能玩AI影象處理,應該不少人玩過,可以把圖片整個換一個畫風/上個美顏。
如果新顯示卡可以實時用AI對畫面處理,那麼可以像著色器之類的方式一樣,很輕易的實現一些原本不容易實現的效果,比如各種梵高畢加索油畫、又比如三渲二等等。
甚至乎,一些動手能力強的玩家可以自己訓練AI,以MOD形式共享,真的一千個人眼裡有一千種畫風。
其實我個人更期待實時光追+VR,那是真有真實世界的錯覺,並且個人是體驗過的類似效果的。
儘管理論上來說,4K 90hz甚至追求8K的VR效能要求應該非常恐怖,但VR有一個非常獨特的縮水方法,是眼球跟蹤,人類實際上能看清楚的(或者大腦能仔細處理的),只有注視點中心範圍,並且深度也只有一定範圍(你可以2隻手指放在眼前,一隻手指慢慢遠離,很快另外一隻手指就會看不清了)。
所以可以把實時光追的範圍限定在人注視的物體上,非注視物體假一點無所謂,只要視線移過去的時候立即變真就行了(甚至這樣人類反而覺得更真實,因為人類看東西都是有景深模糊的)。
在螢幕上,質感好一點壞一點,影響沒那麼大,而對VR來說,那帶來的就是真實世界的錯覺。