首頁>科技>

例如好萊塢拍的《白雪公主》,其實最早的時候就是用Motion Capture來製作的,最早是透過毛玻璃去做我們叫復刻的技術,來實現人的動作,把他資料採集下來,傳導到我們的數字形象裡面。 動作捕捉技術實際上最初是在軍工上的應用,比如說雷達、潛艇等,透過聲納的反饋攝像機可以實時採集海底的三維影象。 此外,動捕技術也經常被應用到影視動畫領域,幫助導演實現科幻或者科技主題的影視作品。比如《阿凡達》、《復仇者聯盟》等,其實多多少少都用了動作捕捉技術。 2012年的時候,動捕技術已經傳到中國,慢慢都是在動畫企業裡面應用,比如說我們拍的一些番劇、動畫片都是動作捕捉技術。

這兩年也開始進入到遊戲行業,大家可以看一下,前一陣遊戲科學在網上釋出的一個相當於3A級遊戲Demo。

他們都是透過動作捕捉技術對演員的動作技術實時捕捉,並且前兩天我們也做了一些交流,未來它可能會捕捉除了人之外,像馬、四足動物等,把所有物體的資料還原到遊戲的世界裡,這樣會使得我們超寫實的遊戲風格更為逼真。 另外,現在很多PC遊戲、手遊都是用虛幻引擎或者Unity引擎去主導開發,尤其是從去年開始,由於引擎技術的成熟,動捕的資料會更加流暢的匯入到引擎裡面,大大節省了遊戲後期製作的成本。 遊戲製作無非兩種,一種是過場動畫的製作,還有一種是當引擎遊戲製作的管線打通以後,動捕的資料會實時傳到引擎上,並且實時進行瀏覽。由於技術的不斷迭代,以及國內人工成本的提高,動捕現在基本上可以取代人工進行所有動作的復刻和抓取。 動捕的這種技術分了幾種,像電磁類、光學類、慣性類,現在全球主流市場主要是光學類,我相信無論是網易還是騰訊,以及我們看到的一些大的遊戲公司,它們也都有自己的動捕實驗室。 前兩天我剛從騰訊回來,我問了一下,騰訊製作遊戲的動捕實驗室檔期幾乎排到明年3-4月份,所以現在基本上每一個大的遊戲工作室都會採取用光學動作捕捉技術去製作遊戲,並且能實現高效製作、一鍵完成等。 由於引擎的發展,現在所有的動捕資料和技術慢慢開始進入到遊戲的製作工業流程中,就像影視一樣。應該在今年初一的時候大家會看到一部電影,叫做《刺殺小說家》,也是由動捕技術完成的。 以及前幾年看的《瘋狂外星人》,當時由徐崢做面捕,還有話劇演員做整個動作捕捉,基本上透過影視的工業化製作流程,透過遊戲的製作化工作流程,慢慢動捕會越來越被大家接受,並貫穿到整個製作流程過程中。 動捕降低的不僅是人力成本,還包括時間和費用的成本。我們可以看到製作一款遊戲更多的是用了大量人力和物力,尤其後期工程師花很多時間做動作的手K。現在透過動捕技術可實現一鍵式完成,減少了很多人力的投入,另外是一次性拍攝可以呈現多個鏡頭語言。 大家知道有一個遊戲叫《使命召喚》,我們今年年初的時候去了一趟美國,並拜訪了《使命召喚》遊戲製作工作室,基本上在整個實驗室裡面,已經開始完全採用演員表演動作,並且這個動作的精細化程度非常高。 我們也看到一些影視的明星,開始慢慢扮演起遊戲的角色,像一些大的明星去扮演一條蛇,扮演一個動作,讓人深感演員表演力和科技的相互結合可以表演萬物。 有一個動捕裡比較出名的演員,叫安迪·瑟金斯,我不知道大家有沒有看過《魔戒》,裡面有一個小的精靈就是他扮演的。他去年在好萊塢開了一個專門培養動捕演員的學校,現在將近招了五六百人。 但是中國現在反而動捕演員比較少,我們也在致力於簽約一些比較好的動捕演員,幫助我們的遊戲公司和影視公司第一時間找到這些演員的資源,去進行表演。 這個就是《使命召喚》裡面拍攝的一個情景,基本都是一站式的完成,透過這個引擎去做實時的渲染。 另外動捕的部署也比較簡單,只要有一個好一點的空間,比如說層高在五米以上,部署一圈光學動作捕捉攝像機,並且我們的演員穿上Motion Capture Suit,透過Mark點來去捕抓演員實時動作,再加上我們面部捕捉的產品Faceware,來去相互結合,把他實時的資料匯入到我們的引擎裡面,最終制作團隊可以使用資料來驅動整個人物形象。 這個是我們在亦莊的一個數字化影棚,當時也拍了,這應該是騰訊的《秦時明月》動捕的拍攝。 我們合作伙伴在上海也做了一個比較大的數字化影視棚,他服務的訂單排期排到明年6月份了,所以現在實際上是產能不夠。由於引擎的發展,很多人開始用動捕這項技術,比如說我們硬體的基礎設施還不夠,滿足不了現在更多的需求。 就比如說,最新跑出來的,我們叫虛擬偶像這個賽道。我們也看到,很多虛擬偶像的實時直播也都是用動作捕捉技術來實時驅動的。就像我們看到線下的演唱會或者線上實時的表演,也都是透過動捕來進行製作的。 另外像美國NBA2K,他已經開始把“動作”變成一種數字資產來進行銷售了,典型的就是他會捕捉NBA聯盟的一些明星級的球員的動作,形成一整套的動作資料,然後在網上進行售賣。 打一個比方,像喬丹的扣籃動作,你要解鎖他,可能需要花2、3美金,實際上動作已經變成一種資產。甚至說,我們現在都知道,聲音和音樂是有版權的,未來動作有沒有版權,我們可以打一個問號,但是我相信這個時代會很快的來臨。 光學動作捕捉技術實際上分很多種,像整個空間定位,透過AI演算法來避遮擋,還有自動校準功能,自由度追蹤等等。 虛擬動點旗下有一款產品叫做OptiTrack,這個品牌已經在全球範圍內銷售了將近20多年了,去年我們大概也做了將近4個億的訂單,這是我們整體的產品一種形態。今年也做了全系列的升級。 這是我們整個的運動捕捉核心演算法,大家可以看到,人體穿上動捕服裝形成不同的光點,最終形成骨骼,實時形成這種3D。那麼這些資料可以實時傳遞到數字偶像也好,還有數字人也好,然後進行實時的驅動。整個資料標準,我們透過SDK也相容了數面上大部分主流的引擎,比如Unity、Maya、3ds Max等等。 另外,Motive:Body這個軟體透過我們20多年的積累,在演算法上以及整個應用性上已經達到了一定的突破,也就是說現在它的成本已經和我們的效率產生了一種匹配,所以也使整個動捕的產品進入到整個遊戲和影視領域,並且可以實現一鍵完成骨骼的設定。

大家知道在人體裡面最複雜的動作,其實是手指。明年要上市3.0版本,會把整個的手指捕捉更加完善,並且可以實時的把這些資料傳導到我們的數字人形象之中,可以跟蹤多個目標,在我們的亦莊棚裡面做了一個極限的測試,300平米我們大概追蹤了將近有42個人,也就是說42組不同人體的資料可以實時的匯入到我們的虛幻引擎裡面。 可以做到64位多執行緒的結構,並且把我們的一舉一動實時的還原出來。今年我們還發布了一款超遠距離的產品,大家有沒有看過張藝謀導演在冬奧會當時有一個北京8分鐘的影片,透過在體育場滑冰運動員運動的軌跡,透過光影來去實時追蹤,然後在體育場裡形成一個非常漂亮的冰花或投影的軌跡。 我們後來問了一下張藝謀導演,他實際上排練了3個月才做到。透過我們的遠距離追蹤產品,可能就不需要排練了,我們可以把人體相對空間位置和投影以及燈光實時的追蹤起來,這樣就可以把光影秀做的更完美一些。 另外,我們今年也升級了骨骼結算器,可以實時一鍵進行骨骼的精度確算,並且把我們人體的身高還有骨骼的大小完全一鍵鎖定。另外這個Motive3.0版本通過了AI的智慧演算法,進行了一些必遮擋的嘗試。 因為大家都知道光學動作捕捉最大的問題,就是有遮擋性,透過AI的演算法,透過資料的積累,我們現在已經可以讓這些遮擋的捕捉不到的,實時進行結算,並且還可以實行連續的校準。 另外,我們今年也支援了動物骨骼的追蹤,我們在實驗室裡做馬的追蹤,還有狗、羊、豬之類的。當然這些可能在未來透過資料的積累,會做成一個動作的資料包,可以實時的給我們中小遊戲公司,甚至我們影視公司來去使用,把它做成標準化的資料進行分類、標註、實施。 未來中小遊戲工作室,可以不用動捕這一套產品,僅用我們的資料就可以來去實時完成整個遊戲動作的製作。這些都是為了幫助開發者在去實現動捕過程中和引擎相互結合,使大家更加便利的使用動捕產品和技術。

7
最新評論
  • 整治雙十一購物亂象,國家再次出手!該跟這些套路說再見了
  • 書單 |《智慧之門》帶你一窺AI世界