-
1 # 繁星落石
-
2 # 從耗子胖成豬
1、這個提問有邏輯毛病
“畫素數”是CMOS感測器的一項屬性,提問的第一條件僅僅是第二條件的子集,所以這個提問在邏輯上講是無法站住腳的。舉個例子就好像說:
幸福生活是取決於“不得癌症”還是“身體健康”?智商正常的人都明白“身體健康”就已經包含了“不得癌症”這個子項了。所以這樣的選擇題還需要選嗎?
2、拋開軟體演算法,決定手機拍攝效果的兩大因素是鏡頭與CMOS感測器。其中鏡頭的作用非常重要,目前智慧手機拍照功能裡面,諸如長焦視角、超廣角視角,均依賴不同鏡頭為CMOS感測器提供投影。
簡單的講,鏡頭決定了CMOS成像的視角、解析度、通光量。
而CMOS感測器則決定生成影象的色位深、畫素、色彩傾向、白平衡、反差等等。
所以沒辦法說鏡頭重要還是CMOS重要,因為脫離了其中一項,整個系統就無法工作。但由於鏡頭的引數複雜難懂,而且鏡頭的宣傳更多的是結構性的抽象概念,消費者很難理解。(例如華為、OPPO宣傳潛望式鏡頭,就目前情況下,大部分消費者依然不太理解這是啥玩意。)所以目前大部分手機廠家更傾向於宣傳引數直觀的CMOS感測器。
-
3 # PM宋先生
題主對手機拍照可能有一定的誤解,這裡來幫你具體說明一下。手機拍照核心取決於三個東西:鏡頭焦端、後期演算法、CMOS感測器。而“畫素”這個概念,僅僅只是CMOS感測器中的其中一個引數而已。
“鏡頭焦端”和“後期演算法”的作用為什麼手機要從過去的單鏡頭一直增加到多鏡頭?核心有兩點,一個是變焦,一個是多張取樣。對於變焦而言,手機由於體積原因,不可能做出相機鏡頭那樣帶有機械結構,光學變焦的鏡頭。所有的手機鏡頭都是恆定的焦段,只能透過裁切畫幅來實現數碼變焦,但是這種方式帶來的最大問題就在於使得畫面質量急速下降。多鏡頭的加入,側面解決了變焦的問題,拿目前華為推出的“超廣角+廣角+長焦”的組合形式,一臺手機上放置了三個焦段的定焦鏡頭,在變焦的時候鏡頭間相互切換,透過這種混合變焦的形式來減少變焦帶來的畫質損害。
對於多張取樣來說,就是為了增加圖片的寬容度而設計的。很多人都知道HDR這個功能,其實原理很簡單,就是在拍攝照片的時候,按照不同的曝光梯度同時拍攝三張照片,並且合成到一張,這樣一來非常亮的地方不會顯得一片白,陰暗的地方不會顯得一片黑,整體看上去細節會豐富很多。拿iPhone 11的三攝模組來說,拍攝HDR照片時,三枚鏡頭會同時拍著總計9張照片做演算法堆疊,得到比傳統HDR細節更加豐富的細節。這是需要多鏡頭才能實現的功能。
為什麼手機要不斷的去提升算力,尤其是在不斷的提升AI方面的NPU效能?核心就是拍攝演算法。這裡我們就拿iPhone來舉例子。當光線非常好的環境下,成像是比較簡單的,無非就是記錄下三攝的鏡頭成像資料,做好拼接,軟體微微調色,最多就是虛化的時候實現機器演算法的摳圖彌補,識別出物體之間的前後關係,把主物體提取出來,背景適當虛化掉。華為採用了一枚景深鏡頭來實現,iPhone這一次則是單純使用的演算法。
當光線比較陰暗的時候,也就是室內環境或者陰天,此時為了獲得比較好的成像,就需要使用到多幀合成技術了,也就是三枚鏡頭同時成像,而且是一次多次成像,比如說iPhone 11 Pro每枚鏡頭會記錄下三張,一共9張照片,做堆疊。這時候就需要有優秀的演算法處理能力了,也就是不僅僅要分辨出物體關係,還要明白物體是什麼?天是天,人是人,山是山,樹是樹,然後給每個物體匹配相應的顏色實現正常曝光。
當光線極度昏暗的時候,也就是我們常說的夜景成像。三攝鏡頭就不僅僅是多張記錄,還會適當增加曝光時間來提升光線的接收數量。但是手機畢竟是手機,感測器很小,再怎樣接收的光線也不多,怎麼辦呢?這個時候就真正需要用到機器學習了。也就是鏡頭採集的畫面,可能只能夠識別出輪廓,但是很多地方是沒辦法看清楚的,怎麼辦呢?那就只能“機器腦補”了。也就是機器自動來彌補出畫面......是不是很牛X?這些都需要演算法幫忙
“畫素”與CMOS相信透過上面的閱讀,你應該可以知道,對於手機成像來說,畫素,其實並不是最重要的東西。我們就圍繞CMOS談一談。也就是一個很經典的問題:為什麼手機畫素如此之高,但還是比不過單反相機?
目前全球感測器企業排名,包括了手機、相機、汽車、智慧硬體、監控以及各種工業裝置,索尼生產的感測器市場佔有率是全球第一,沒有任何懸念,接近50%的市場份額,全球90%手機感測器都是使用索尼的,包括華為與索尼聯合開發的RYYB感測器;第二名是南韓思密達三星,大概擁有接近20%的市場,比如小米CC9 Pro上的那枚1億畫素感測器,就是與三星聯合研發;第三名可能大家就比較陌生了,是來自美國的豪威科技(2011年以前是iPhone手機的感測器供應商),大概10%左右。三家企業,市場佔有率達到80%,嗯......不管我現在怎麼看手機市場,都是無聊透頂......
對於感測器來說,畫素決定的,其實只是感測器中的畫素點大小,但是核心影響手機成像質量的,是感測器的尺寸。感測器尺寸應該很好理解,最通俗的一個比喻就是:如果手機的CMOS尺寸是一扇門的話,那麼單反相機的感測器尺寸就是一面牆。那麼在這樣的面積差距下,你在門上面鑿出來一萬個洞,是不是進入的光線就大於在牆上鑿出來一千個洞多?你應該不難理解了吧,為什麼單反相機畫質會比手機號,核心不是畫素多,而是感測器尺寸大,進光量就大。因此,不管畫素怎麼做,最最核心的問題就是要提高感測器的尺寸。但是目前基本上行業已經下了定論:手機感測器最大隻能做到1英寸左右。比起全畫幅和大畫幅感測器,是遠遠比不上的。
那麼現在有的廠商做6千萬,1億畫素感測器是為了啥?核心是為了做多畫素取樣合成。上文講HDR,我們說了按下快門同時拍攝多張照片再堆疊合成的技術。高畫素CMOS,則可以一次性得到多張照片,減少因為延遲帶來的畫面浮動。舉個很簡單的例子:一個4800W畫素的CMOS,如果相鄰的四個畫素點切割開,就可以同時得到四張1200W畫素的照片,這樣一來比傳統的HDR功能更快更好,而且輸出的1200W畫素照片體積也就更小。
因此,對於手機拍照而言,拋開“變焦”和“演算法”是不現實的,只看“畫素”大小是容易被忽悠的。
回覆列表
cmos決定畫素密度,cmos處理電路及韌體決定輸出影象的質量及響應速度,因此拍攝很難單純取決於畫素,一定會受到cmos影響。