手機拍照的短板其實是色彩
現在的手機畫素動輒就是一個億了
再用谷歌相機的演算法進行畫素四合一,多幅合成,hdr,最後細節其實是不錯的。
但是手機的色深一直是8位元色深
而相機卻是14位元色深
色深越高,記錄的色彩越多,色相過渡之間的斷層越少,色彩飽和度,明度越越飽滿,過渡也平滑,圓潤。
手機的畫素點小,密度大,鏡頭又小,無法真實記錄現實中的一個點的明度和色彩,而馬賽克感測器還要根據這個點插值其鄰近區域的明度和色彩,於是造成影象明度和色彩上的混亂,造成很多錯誤畫素,最後又透過演算法一抹了之,只留下那些鮮明的畫素,其他都被猜測塗抹掉。被猜測塗抹掉的畫素很多,就會有放大後細節缺失,塊狀。
如果說,這些塗抹在形狀細節上還能透過演算法補救,讓人不易察覺,但在色彩上就不好辦了,畢竟色彩特別敏感,你在白色中間猜測出來一塊黑色,就太扎眼了。不過,也許以後會有更高等的猜測色彩問題的演算法來補救,不過現在好像還沒有。
這就造成了,手機圖片上的細節和色彩插值出來的很多,因為不明確某個點到底是什麼色深彩,只能根據鄰近的算個平均值,本來是高光的也變成中間調,本來是高飽和的點也被平均掉。而本來是黑的卻被平均成了灰的,白的也被平均成了灰的。於是手機的圖片在色彩和明度上都發灰。
發灰的照片是不討人喜歡的,於是就會提高飽和度和對比度,提飽和和提對比,就會又增加明度和色彩上的斷層。
這些就造成了即使用14位元的色深,也效果不大,還能造成拍照速度太慢,影響拍照體驗。
造成手機的照片比相機在色彩上
不夠鮮豔,不油潤,發乾,不真實。