首頁>遊戲>

最近,“AI作畫”產出的作品似乎成了一股互聯網風潮。這些初看驚豔、氣氛拉滿,仔細琢磨又看不出所以然的畫作往往給人留下深刻印象。當人們得知這些畫作完全由AI繪製,更是又多了一份驚異與危機感。

一些AI作畫的成品效果的確十分驚豔

雖然涉及複雜的機器學習算法,AI作畫的原理解釋起來並不複雜。用戶可以在平臺上輸入各種與風格、主題、氛圍有關的關鍵詞,AI根據這些關鍵詞在互聯網浩如煙海的資源和素材中搜索、學習,最後糅合與拼接成一些符合要求的畫作。

拿在移動端十分紅火的Wombo Dream為例,它是一個面向大眾用戶的AI作畫工具,界面可視化程度高,操作簡單。我在界面中選擇“吉卜力風格”,輸入主題“夢中夢”,並且上傳了一張湖中小船的圖片作為參考基準。很快,AI就給我生成了一張和吉卜力動畫背景類似的成品。

移動端面向大眾的Wombo Dream操作簡單,生成圖片的速度很快

除此之外,還有很多更專業、側重點不同的圖像製作AI。比如谷歌的Disco Diffusion可調參數更多,能夠詳盡地設置圖片的大小、質量,在描述上的要求也更加精細,可以涵蓋畫師風格、色調、主題等許多方面。這使得它生成的一些圖片彷彿出自真人畫師之手。而Midjourney模仿了各種用戶可能對真人畫師提出的需求,是不少從事數字繪畫的藝術家的寵兒。Stable Diffusion是一款開源軟件,許多遊戲開發者都青睞於它廣闊的應用前景。Artbreeder則因為對真人頭像的模擬,早幾年就在網絡上風靡。

雖然這項技術並不是近年才有,但隨著AI技術的發展和互聯網帶來的更多素材,這一類產出作品的質量肉眼可見地日益提升,效率也大大升高。今年年初,先不論畫得怎麼樣,一些AI畫圖工具畫一張圖還要1小時左右,現在這個時間已經縮短到十幾秒了。

如果說普通用戶使用這類AI作畫是為了滿足自己內心對種種場景的幻想,遊戲開發者們則從中看到了更多潛力。

從機械化的勞動中解放

“正義的史官”(化名)是一款策略遊戲的開發者。聯繫上他時,他開玩笑說,自己正在朋友圈裡“佈道”,號召同行們都來嘗試AI作畫。他自己已經開始在項目中使用,而且感覺用得很順手。說到AI畫圖的好處,他提得最多的是“量大”“速度快”,尤其在開發初期找概念方向的時候,效率比人工畫圖高出非常多。

在這個階段,策劃最想看的是畫面的整體效果和大感覺,但很多具體細節還無法確定。打個比方,假如他們想做一個黑暗奇幻背景的遊戲,可能有哥特風、中世紀風、工業風等等好幾個方向。在無法判斷哪些元素組合和色彩搭配效果最好的情況下,反覆提需求可能會造成人力的無謂消耗。“AI作畫就不一樣,我們可以不斷調整關鍵詞,調一次讓AI出100張看看效果。”史官說,“如果我讓公司美術或者外包先出100張看看效果,他們應該會直接把我從窗口扔下去……”

在角色設計上也是一樣。“假如我想設計個外星人形象,可以先讓AI來500個看效果,再從中挑一個進行更細緻的設計。”他繼續說,“你不可能讓真人畫師去承擔這種試錯成本,但AI就無怨無悔。”

已經有藝術家嘗試用AI生成圖片,參加數字藝術比賽,這是獲獎作品

除了提供靈感大方向,AI生成的圖片還可以當作參考素材。邢峰(化名)是一款主打文字敘事和換裝類遊戲的製作人。他的遊戲中有大量涉及服裝褶皺、布料質感和飄逸動態的繪畫。

“這種東西你不可能讓畫師憑空去想,他們平時畫也要找很多參考,而且找到角度和姿勢合適的參考其實很麻煩,”邢峰介紹說,“輸入關鍵字,直接拿AI出的圖當參考就方便很多,而且也不用考慮潛在的動態、姿勢之類的侵權問題,因為AI是憑空給你做出來的。更何況,AI做的3D渲染,一般打光都比較正確,不需要你再自己去腦補。”

不過AI生成的概念圖、人物圖目前很難直接使用。“最後還是得讓畫師來畫,畢竟AI生成的東西都很破碎,它沒有一個統一的設計,直接拿來用,不太符合我們的項目需求。”邢峰說。

目前最接近於直接可用的AI作畫的成品,主要集中在一些相對簡單的平面圖案設計和3D素材貼圖上。這類圖片一旦生成,開發者只需要進行一些裁切、調色之類的簡單處理,就能應用到遊戲中。

我嘗試用AI生成了一幅寫實風景,這種效果作為一些文字類遊戲不太重要的背景,已經接近於直接可用

簡單的平面圖案設計包括各種旗幟圖標、徽章、法陣等等。如果它們與遊戲的世界觀、情節並不緊密掛鉤,不需要專門設計,就可以交給AI去批量產出。

史官開發的遊戲中就要用到很多勳章圖案和供玩家選擇的旗幟圖標。這種美術素材在遊戲中不佔據重要地位,如果讓畫師人工設計和繪製,一個人一天最多隻能畫出十幾個,投入和產出非常不平衡。“用AI畫,如果畫勳章,一晚上能出大幾千個,圖標一天能出1萬個。拿到成品之後再用腳本切圖打包,比人力不知道快多少倍。”他如此形容效率的巨大差距。

他進一步計算了不同設備下AI的出圖效率:“我們現在主要租用的是谷歌雲。AI畫圖工具Stable Diffusion出的圖,以一張圖512×512像素為標準,在Stable Diffusion裡走50步的話,用T4顯卡大概需要15秒,64步大概20秒,步數越多時間越長。要是有V100的顯卡,估計50步幾秒就出來了。出圖數量可以自己設置。電腦的顯存決定能不能生成足夠大的圖,GPU決定有多快。”

至於開銷,Stable Diffusion本身是免費的開源軟件,谷歌雲的花費則是每月10美元,更高的配置也僅需50美元。

邢峰也提到了一些接近於一次性使用、在遊戲中不起到重要作用的圖案。“假如要做一個獸人小兵,出來不到一分鐘就被打回去的那種,他身上的文身就完全可以用AI生成。還有各種魔法陣,設計起來其實很麻煩,在遊戲裡作用卻不大,直接找素材又很容易碰到版權糾紛……”AI作畫可以把畫師從這類機械化的勞動中解放出來。

但並不是所有平面紋樣都適用於AI,最終要看的還是開發者的需求。“比如衣服上的刺繡、布料上的花紋,這些在我們的遊戲裡涉及到世界觀、文化、陣營等等,還挺重要的。”邢峰說,“所以這些我們還是人工設計,不會用AI來畫。”

開發者們覺得用起來最沒有負擔的是AI生成的3D貼圖素材,尤其是石頭花紋、花草樹木這類放之四海而皆準的東西。如果他們需要的只是寫實背景,這些逼真、沒有特殊風格,也不存在版權的自然外觀,可以算作最方便的素材,甚至生成之後也不需要多少人工修正。

獨立開發者葉蘭舟也一直關注著AI作畫,他進一步解釋了目前廠商使用AI作畫工具的關鍵:“AI現在是一個混沌的黑箱。在圖出來之前,你很難知道自己會得到什麼結果,每一個關鍵字會在裡面起到什麼作用,也是不清楚的。”

現在開發者們對AI作畫的調試,更像是在完成“關鍵詞獵手”的工作。“其實核心就是兩點:找到自己遊戲風格對應的關鍵詞組,以及篩選適合在遊戲裡發揮的圖。”

他拿出一張很接近遊戲原畫的白髮女性人像作為例子。要生成這張圖,除了基本的“girl with super long hair, hair becoming white snow”(超級長髮女孩,頭髮雪白)的關鍵詞之外,還要加上各種其他的限制。比如“細節豐富”“數字繪畫”“Artstation”“概念設計”“光滑”“聚焦清晰”“虛幻引擎5”“8K”等。最後,還要加入“by Artgerm and Greg Rutkowski and Alphonse Mucha”等著名畫家的名字對圖畫的風格進行調整。

開發者要調整多次關鍵詞才能生成自己想要的效果

“所以,關鍵詞就跟咒語一樣,需要不斷地嘗試調換,看怎麼樣才能出來最能表達自己想法的風格。”葉蘭舟說。一般來說,根據成圖的複雜程度,調整關鍵詞的過程在15分鐘至1小時之間。

無法代替人類,也確實存在問題

目前,AI作畫技術仍然處在不斷的變化發展之中,可以用“日新月異”來形容。哪怕把今年年初的AI作畫和現在相比,效果也是天差地別。

葉蘭舟回憶了幾個印象深刻的例子。大約在今年三四月,使用DDV5這一AI作畫工具,以“德魯伊”“Pablo Amaringo”“Artstation流行”等關鍵詞繪製的圖畫在氛圍和畫面元素上已經足夠令人印象深刻,但當時還基本上無法生成正常的人臉。幾個月後,DALL-E2已經可以生成比較準確的五官,而Stable Diffusion在畫面表現上更上一層樓。

大約5個月前,DDV5生成的德魯伊主題圖片效果

經過幾個月的發展,DALL-E2(左)和Stable Diffusion(右)的圖片生成質量都大有提升

另一個例子是Midjourney在兩個月的時間內,以同樣的關鍵詞生成的以魚為主題的圖片。

“所以AI進化的速度真的非常驚人,簡直像超人劇變,每天甚至每小時都在變化。”葉蘭舟如此評價。

時隔兩個月,Midjourney對同組關鍵詞生成的不同畫面

與所有引起人們注意的新興事物一樣,AI作畫在引人驚歎的同時也帶來了不少爭議。

就像前文所說,AI依然只是工具,只能對美術方面的重複性勞動進行輔助,是用來解放畫師而不是代替畫師的。“或者說,它們代替的是缺乏創造性的勞動。”邢峰說,“對AI生成的素材進行篩選,以及最終的設計和繪畫,還是得讓真人來,只不過簡化了前面若干會讓真人畫師‘頭禿’的步驟。”

史官說,根據他在同行圈子裡“賣安利”的經驗,策劃和製作人嘗試AI作畫的積極性最高,畫師的積極性最低,但不是因為畫師覺得自己會被替代。“他們對AI作畫本身沒有興趣,最關心的是用AI輔助進行繪畫的實例。”

另外,哪怕AI能畫出各種精緻的圖片,在實際應用上,開發者們依舊處在探索和研究的階段,離真正的工業化、大規模應用還有一段距離。

首先,工業化的開發者工具往往需要和其他常用工具的接口,方便創作者在不同軟件之間隨時拷貝和編輯素材,而目前大部分AI作畫工具都缺乏這項功能。許多人已經注意到了這個問題,並正在努力解決。“比如我們使用的Stable Diffusion現在已經開源了,以後應該會有更多優化和工具的接入。現在已經有接入Photoshop的視頻了。”史官說。

史官提到的這段演示視頻的效果確實讓人驚訝。將Stable Diffusion接入Photoshop後,畫師幾乎能夠隨時通過輸入關鍵詞的方式,用AI生成的內容填補畫布上的空白,然後直接用畫筆在上面修改,儼然多了一個有求必應的繪圖助理。

畫面上的建築和植物都是先用AI生成,再手動繪製調整出來的

邢峰則希望有更多讓開發者定製的內容,比如定製素材庫。“假如我們原來做了一個特別風格化的遊戲,接下來想做個類似的,能不能把我們自己的素材上傳上去訓練AI,讓AI給我們畫呢?”

葉蘭舟將這個過程稱為針對某個畫師或者特定畫風的小規模機器訓練,但目前大部分渴望用上的遊戲廠商還沒有能力進行。“不過大家已經在做研究了,比如現在Stable Diffusion的開發者說,訓練包最終會壓縮到100MB……這樣我們大概就能拿來跑訓練了。” 這個趨勢的發展速度也很快。這兩天史官下載的版本,訓練包已經從7GB變成了2.7GB。

但有些版權概念更為模糊,比如畫風。這是目前AI作畫爭議的焦點。因為訓練AI時的不少關鍵詞都涉及到畫師的風格,使用者既可以指名道姓地輸入現有著名畫師的姓名,也可以輸入諸如“吉卜力”“迪士尼”這樣已經相對穩定的商業流派。結果,當AI作畫的成品和這些參考圖的風Grand SantaFe來越像,畫師們難免會感到被冒犯。

8月底,已經有不少日本畫師在社交平臺聲明,禁止AI學習自己的畫風。抗議涉及的AI作畫平臺Mimic主打二次元頭像,他們放出的對比圖乍一看的確難辨真假。

用戶上傳畫師們已有的作品,Mimic用AI生成新的畫風類似的頭像

儘管葉蘭舟從開發者的角度指出,如果真的要應用在遊戲中,AI生成的角色在面部表情、形象的連續性(指角色長相在不同場景中不會“一人千面”)等方面仍有不少瑕疵,但光從靜態圖看,AI過強的模仿能力似乎一下子就讓畫師們十幾年的努力顯得岌岌可危。

此外,AI作畫中出現的人像還會涉及肖像權的問題。有網友指出,如果AI訓練用的數據是從網上爬來的,要商用的話,必須保證它爬的不是禁止爬數據的網站。正常情況下,對人臉等敏感數據進行抓取需要授權和知情同意。

目前,各大AI作畫平臺對圖像使用的規定都語焉不詳。一些只是概括地規定不能製作色情內容,不能將圖片用作有害用途,或者成為付費會員才能把成品圖商用。DALL-E2和Stable Diffusion的協議裡則提到,理論上所有成圖的版權屬於使用者,但如果它們和現存的其他圖片相似度過高,AI工具不會為此負責,大體還是讓使用者風險自負的意思。

“這一塊依然是法律的灰色地帶,”邢峰說,“以後可能需要一兩場很大的官司來推動大家認知和變革。”

已經上架Steam的遊戲《瘋狂之源》(Source of Madness)是目前所知的唯一完全用AI生成怪物和場景,對這一技術進行密集運用的例子。但它本身是克蘇魯題材的,可以容納各種奇異的怪物形象,最終視覺效果看起來也和通常意義上的商業遊戲有一定距離。

《瘋狂之源》的克蘇魯風格和AI生成的一些“不明覺厲”的形象相當搭配

不管怎麼說,AI作畫的潮流很難忽視,開發者們也不會拒絕能夠降低成本、提高效率的新生產方式。許多獨立遊戲開發者樂於擁抱和研究這種變化。“畢竟你很難阻擋技術進步的腳步。”邢峰說。AI作畫就像是現代建築工人擁有的起重機,解放的是古代需要親自扛石料的三千苦工,但工人本身無法替代。至於隨之而來的其他摩擦和潛在的糾紛,可能是所有新事物在普及伊始都要面臨的陣痛。

4
最新評論
  • 年營收30億,智明星通投資的這家SLG廠商贏麻了
  • 童錦程突發奇想準備驚喜,效果卻出人意料?妹子險些崩潰大哭!