可以顯示10億種顏色的螢幕,也就是原生硬體支援10bit色深的螢幕,好像一夜之間成為了顯示裝置的標配,所有帶螢幕的裝置都在提這個概念。
簡而言之就是:大部分時候沒感知,除非你有專業的需求。
因為絕大部分時候我們看到的影片內容,都是非常複雜的,多種色彩和細節交雜在一起,8bit顯示的1677萬種顏色已經足夠表達了,沒人會暫停去放大一個色塊看裡面的斷層如何表現,快節奏內容的當下,很難注意到這些要素。
要理解色深的話,我們先打個簡單的比方,炒菜放調味。
色深就好比是勺子。
色彩這個廚子放鹽的時候有個毛病,強迫症一樣,每次都要把勺子給盛滿了給放到鍋裡,每盛一次,他就嘗一下味道。
但是顧客的口味是各不相同的,而且在這個次元裡面,顧客可以精確地知道自己喜歡什麼口味(色準)。
有人喜歡鹹的,有人喜歡淡的,有人喜歡味精多一點,有人喜歡醋多一點。(RGB)
如果勺子太大的話,就導致口味會太鹹或者太淡,勺子越小,口味可以調控地越精確。(色深)
所以色深這個概念其實挺難向消費者科普的,一般來講,廠商要向消費者普及10bit色深到底有什麼用的時候,都是用的同一招,那就是日出日落的影片。
日出日落的影片在8bit顯示裝置上,會出現明顯的色彩斷層,就像最左邊這張圖這樣。
一般可以怎麼解決這個問題呢,加噪點,強行製造相對平滑的過度。
在《警惕後期陷阱,不要讓色彩斷層毀了你的照片》這篇文中,就介紹了通過蒙版和加噪點的辦法,來解決天空部分色彩斷層的問題。
為什麼會出現這種斷層呢,就是因為8bit色深可以表達的色彩不夠多。
我們知道影象的解析度低,會導致畫面細節紋理很模糊。
這張圖可以很直觀地看到,高解析度的圖可以有更多的紋理細節。
那麼同樣的,色彩也是一樣的,它有自己的“解析度”,這個“色彩的解析度”決定了色彩細膩程度的數值,被我們稱為色深。
色深是由RGB紅綠藍三個色彩通道來定義的,大千世界,奼紫嫣紅,就是由三基色混合而成的。
於是色彩通道的“解析度越高”,最後能表達的色彩就越多。
所以8bit可以不恰當地類比為一千六百萬畫素的CMOS拍照能得出來的“色彩解析度”。
而10bit則就是“10億畫素級別的色彩解析度”。
既然10bit色深這麼好,為啥沒有普及這個概念呢?
這又要回到文章的開頭了,終究來說10bit還是一個專業化的需求,在我們99%的觀影中,8bit都已經足夠了,只有少數的場景才有用。
最典型的場景,就是HDR影片的播放了,標準的HDR影片就是10bit色深的。
我們在一些學習網站找資料的時候,有些片源同樣是2160P,但是8bit的就是SDR,10bit的才是HDR的。
那麼HDR影片到底有什麼好呢?
大家可以試一試一些影片網站官方的4KHDR演示片。
但是需要注意一些問題:
首先你要客戶端開啟,網頁開啟是不行的。
然後你的的手機螢幕是要支援HDR的,同時還需要是原生10bit色深的。
這樣你才可以感受到HDR影片的樂趣,那種超高的動態範圍,極致的色彩表現。
然而你最可能遇到的問題是——你的裝置支援HDR,甚至認證了HDR10+。
但是你就是激活不了HDR的效果,直接表現就是在逆光樹葉的鏡頭,強光下的葉片會發白,而激活了HDR的裝置樹葉是純淨的翠綠色。
圖為不支援HDR的裝置播放HDR片源出現的悲劇。
本來我的顯示器就是8bit色深,在播放HDR片源的時候,強行轉換過來的色彩幾乎全面崩盤了。
大家可以看到,這還不如播放SDR片源呢,樹葉的邊緣幾乎全崩了。
而激活了HDR的裝置就可以獲得同時獲得強大的明暗細節,亮的地方不會過曝,暗的地方不會太暗,也就更加接近人眼的實際觀感。
由此也可見到,人眼是一個多麼強大的影像採集終端。
所以這裡就是10bit色深未能普及開的另一個問題,就是內容端支援的太差了。
能夠播放HDR片源的網站就少之又少,就算有也是特供的片源。
按照B站上傳片源的規則來看,可以智慧識別HDR片源。
然後問題就來了,我直接拿手機拍了一段五分鐘的4KHDR杜比視界30幀影片,僅原片就2G往上,線上播放需要的流量和頻寬都十分驚人了。
而1080P8bit的影片五分鐘只需要四百兆左右,是前者四分之一的大小。
對於平臺來說,這些全部都是成本。
所以現在對高位元速率高品質影片支援最好的平臺之一B站來說,做高畫質主要還是營銷驅動的,實際上消費端的面板沒跟上,頻寬流量也沒能跟上。
但是此一時彼一時,以前10bit色深是攝影機相機的專屬,從find X2Pro用Live HDR模式做10BIT色深取樣開始,消費端也能用上這種體驗了。
包括這一代iPhone 12 Pro系列,也普及了10bit的HDR杜比視界拍攝,一經推出之後廣受好評。
消費者手裡面有頂級的螢幕,他肯定也更願意為內容付費——本身願意購買高階手機的使用者,他就是高價值使用者,願意為了更先進的技術特性花錢的。
硬體廠商是所有內容體驗的基石,就像最早鋪海底線纜的資本一樣,你要想推動內容產業進步,首先就是硬體廠商背罵名,把體驗基礎拉起來。
高階硬體→高價值使用者→高品質內容→平臺標杆效應創收→體驗口碑昇華→高階硬體買買買
但是話說回來了,做了同樣的事情,為啥OPPO做LiveHDR就沒有收穫蘋果那麼多的掌聲呢?
這就要回到OPPO正在做的事情了——全鏈路色彩管理。
很多人看到這個概念之後都覺得一頭霧水,其實就是OPPO要在安卓的生態裡面,靠一己之力做到ios的色彩體驗。
我們回顧iPhone 12 Pro系列的宣發就能看到,它們在推出10bit拍攝的同時,推出了一整條鏈路的10bit方案,從拍到剪到播放,可以在任何裝置上完成,甚至可以在手機上剪輯杜比視界的影片。
在安卓這邊,接近這個形態的,就是oppo了。
LiveHDR可以拍10bitHDR。
接下來全鏈路色彩管理估計要把即錄soloop也適配10bit剪輯。
相簿圖片也要完整地支援10bit播放和儲存,最簡單的一個場景,比如我要在相簿裡面裁剪和編輯照片,後期完之後這個相片還是10bit色深的,不能說編輯一下就被壓縮成8bit了。
更重要的是,oppo還要去推動平臺方去主動適配10bitHDR的播放。
在我多臺裝置的測試中,很多支援HDR10+的裝置,在播放HDR片源的時候,都無法啟用HDR播放模式,這就是軟體適配做得不夠好。
我的顯示器更是乾脆徹底崩了。
所以綜上所述,我們可以看到,要想得到完整順暢的10bit體驗,是需要一整個鏈條,完整順暢地運作,才能夠達成的體驗。
為什麼文章開頭講現在10bit是專業需求,普通人感受不到?
就是因為只有在專業領域,才能有全套的鏈路處理。
拍攝裝置就要可以採錄10bit的色深。
採錄之後儲存的格式就要支援10bit的色深,甚至可以保留更強大的色彩資訊,比如HFIF最高可以儲存16bit,而JPEG最高只能支援12bit,而且體積比HFIF大了一倍。
儲存在介質中,就需要播放,這就還需要一個原生支援10bit色深顯示的顯示螢幕。
那麼從攝像頭採錄,再編譯到快閃記憶體中,需要播放的時候再調動,解碼出來,對映到螢幕上。
其中每一個環節,都會客觀上造成色彩資訊的損失,每一步損失一點,到最後播放出來的時候,就會造成大量的色彩失真。
所以像oppo這樣做全鏈路的10bit色彩管理,保證每一個環節都在掌控之中,才能做到完整的10bit色彩體驗。
最起碼你用OPPO的裝置拍10bit的影片,在OPPO的螢幕上看,是非常準確的,這個是OPPO做這個工作最基本需要先做到的問題。
我曾經就用過一部手機,它相機拍影片的時候是P3色域,原生相機播放影片的時候是sRGB色域,就導致我拍的時候感覺色彩很鮮豔,播放的時候感覺色彩灰灰的,總感覺是自己有問題。
還有一次我在8bit色深的電視上看10bit色深的《環太平洋》電影片源,一開始感覺沒啥一到晚上的時候,色彩斷層就不斷出現,很影響觀感,還不如直接看8bit色深的片源。
這些就是片源投映到螢幕上的時候,解碼出現的問題。
要想解決這些問題,廠商就需要不斷地去定義和推動上下游對於色彩的定義和理解,讓整個鏈條理解什麼是好的色彩,認可“色彩可以更好”這個理念。
但在做這個工作的時候還是有一個問題,就是硬體廠商是沒有資質去定義什麼是“好的色彩”的,可能oppo還是要和相關機構一起來做這個事情。
所以經過我以上簡單的介紹,大家可以發現,只是簡單一個10bit色深的體驗,就需要打通產業上下游,所有環節都需要付出比以往多得多的成本,去推動這個體驗的普及。
當時oppo宣佈全鏈路色彩管理的時候,我就感覺是一條漫長的道路。
但是路途雖然遙遠艱苦,但基礎的工作總是要有人去做,去推動。
oppo願意在安卓陣營裡面主動在國內做這件吃力不討好的事情,是很具有先鋒意義的。