回覆列表
  • 1 # 繁星落石

    肯定不是線性的,但是應該會有一個線性區間,目前產品設計所使用的攝像頭數量應該還線上性區間內,所以增加攝像頭數量會對拍照有足夠的提升。等到數量繼續增加,就會進入飽和區域,此時增加攝像頭效果就不顯著了。

    其實從華為增加ToF攝像頭的時候,就已經感覺到線性區域已經到了盡頭,因為從畫質上說,ToF並沒有給華為帶來太大的效能提升,可能拍攝人像時候會更加自然,但是也是有限的,蘋果透過演算法也能做到。可能還有隱藏的功能華為還沒對外開放,畢竟ToF玩法很多的。

  • 2 # PM宋先生

    當然不是線性增長的關係。張三是個土豪,買了最貴的哈蘇大畫幅相機,配齊了所有焦段的鏡頭,又能怎樣呢?自己不練習拍照,光靠提升硬體就一定可以了?正常人應該也不會這樣認為吧~所以手機拍照也是一樣的,除了硬體要提升,軟體也要提升,更何況增加鏡頭數量,只是提升硬體的其中很小一個方面而已。

    為什麼手機要從過去的單鏡頭一直增加到多鏡頭?核心有兩點,一個是變焦,一個是多張取樣。

    對於變焦而言,手機由於體積原因,不可能做出相機鏡頭那樣帶有機械結構,光學變焦的鏡頭。所有的手機鏡頭都是恆定的焦段,只能透過裁切畫幅來實現數碼變焦,但是這種方式帶來的最大問題就在於使得畫面質量急速下降。多鏡頭的加入,側面解決了變焦的問題,拿目前華為推出的“超廣角+廣角+長焦”的組合形式,一臺手機上放置了三個焦段的定焦鏡頭,在變焦的時候鏡頭間相互切換,透過這種混合變焦的形式來減少變焦帶來的畫質損害。

    對於多張取樣來說,就是為了增加圖片的寬容度而設計的。很多人都知道HDR這個功能,其實原理很簡單,就是在拍攝照片的時候,按照不同的曝光梯度同時拍攝三張照片,並且合成到一張,這樣一來非常亮的地方不會顯得一片白,陰暗的地方不會顯得一片黑,整體看上去細節會豐富很多。拿iPhone 11的三攝模組來說,拍攝HDR照片時,三枚鏡頭會同時拍著總計9張照片做演算法堆疊,得到比傳統HDR細節更加豐富的細節。這是需要多鏡頭才能實現的功能。

    那麼未來是不是手機鏡頭還要不斷加下去出現四攝五攝呢?手機攝影未來的方向在哪裡呢?

    手機限制於體積的大小,還有續航等等原因,三攝的解決方案已經基本定型,華為的四攝鏡頭,無非是多增加了一枚TOF景深鏡頭,本身不負責成像,只是為了測量畫面中各個物體之間的關係,做到更好的渲染。

    對於鏡頭本身而言,其實手機廠商未來的方向一個是進一步提升鏡片的透光率,華為與徠卡一直在致力於做出更好的鏡片模組;另一方面就是能否在潛望式鏡頭的基礎上,做出可以光學變焦的鏡頭模組,這樣一來就會大大加強手機的變焦功能。

    除了鏡頭,感測器也是未來需要注重發展的地方,一方面是能否做出高畫素的感測器,比如這一次小米和三星聯合釋出的一億畫素感測器,其實側面上對於多畫素合成,提升夜景拍照,增加照片解析力,都是很大的進步;另一方面是如何透過改變感測器的畫素排列和顏色,實現更好的色彩接收,比如說華為定製的RYYB感測器。

    當然最後,還有AI演算法的不斷成熟,這一點來說谷歌一直是先驅。在很多極端情況下,由於受到硬體引數的限制,部分場景手機無論怎樣都是沒辦法拍出理想的照片,這時候就需要演算法來進行二次修復,你可以說是P圖,可以說是後期美化,但是不可否認,AI演算法的加入,能夠讓更多普通消費者也拍出自己滿意的照片,科技改變生活,不是麼?

    所以鏡頭當然不會隨著數量線性增長,但是一定會隨著各個地方的完善來達到不斷提高的效果。

  • 3 # A迷路的男孩

    人類為什麼要發明相機呢?和繪畫一樣,就是想要把自己眼睛看得到的東西儲存下來,隨著技術的發展這很快就被滿足了,相機的使命就從儲存人眼能看到的一切。變成了人眼想要看到的一切。

    手機攝像頭為什麼越來越多?手機和相機不同,多一顆攝像頭就多了一個無處安放的黑洞,對外觀的影響極大,如果一個攝像頭就能把人眼看到的東西儲存下來。那為什麼非要多放幾個洞?去破壞手機的美觀度呢,問題是一顆攝像頭真的就夠了嗎?人眼最重要的特徵就是能看清楚,這聽起來很簡單,但對手機來說,簡直難如登天手機攝像頭就是在有限的體積內,不斷的提升畫素和畫質。

    先讓人眼看不出破綻。多少畫素才能夠清晰呢?我們平時讀的雜誌單頁畫素只有800萬,常見的4k顯示器,1000萬畫素左右就能夠覆蓋,而現在手機攝像頭的畫素1000萬都算是少的,畫素不是問題,問題是每個畫素都能夠清晰的顯示。畫素多不等於畫質好,手機單個畫素的尺寸比傳統相機差了幾倍。而相沖的尺寸越大,就能捕獲更多的光線,獲得更清晰的畫面,也就是說近光亮決定了清晰度,像早期的華為p9就用了黑白加彩色的雙色方案,一般的攝像頭為了獲取顏色資訊,每個畫素上都有一個彩色濾鏡,只能透過一種顏色的光,而黑白攝像頭去掉了彩色濾鏡,任何顏色的光都能透過,鏡光量就會大很多。

    在和彩色照片進行合成就得到了一張高質量的照片。今年華為p30的Rayb感測器。也是用類似的方式去增加進光量,但近幾年手機上的感測器的面積越來越大,再加上多幀合成演算法,已經能夠拍出清晰真實的片子,一顆攝像頭其實已經能還原我們眼睛看到的清晰的事件。但只是清晰,其實還不夠,人眼看到的世界不只是清晰,更重要的是你眼睛聚焦的地方清晰,其他的地方就會模糊,大部分人喜歡有虛幻的照片,就是因為接近人眼的觀察習慣。多攝像頭是為了還原人眼的虛化帶來的立體感嗎?

    虛化就是沒有對上焦在照片中如果一個圓足夠小,也無法分辨就會模糊,這就是彌散圓,彌散圓是清晰和模糊之間的一個臨界點。在相機中焦點前後各有一個容許彌散圓,這兩個彌散圓之間的距離叫做景深,前景深的虛化就很明顯,更接近人眼看到的視線,同樣的焦距光圈越大景深就越淺,光圈越小景深就越大,所以只要光圈足夠大就能模擬出人眼看到的虛化效果。

    然而我們平時看到的光圈值只是一個係數,實際進光量的多少還是要拿入射光瞳直徑來衡量,也就是說同樣的虛化效果需要同樣的入射光瞳直徑,根據公式入射光瞳直徑等於焦距除以光圈係數。手機的物理焦距一般是4毫米,光圈1.5左右入射,光瞳直徑就是2.66毫米。要達到相機的12.5的近光值帶來的虛化效果,手機鏡頭的光圈就要做到0.32,目前光圈越大的鏡頭就是nisa定製的。光圈也只到0.7。由於玻璃的折射率、相差、視場角的緣故,鏡頭很難做到這樣的,大光圈且不說能否做到0.32的大光圈,全畫幅12.5毫米的鏡光直徑比手機攝像頭的整個模組都長在手機的體積上,要實現類似全畫幅的光學虛化效果是不可能的,其實只要模擬出前景清晰後景模糊的效果。

    但攝像頭與人眼不同,相機內有上千萬個畫素點。如果把每一個畫素折成兩半分別去成像,不就相當於看到不同畫面的兩隻眼睛嗎?這就是PDAf相位對焦技術。大部分的相機和手機都在用這項技術去快速對焦,而谷歌則是利用雙畫素成像的差異。去分割主體和背景,進而做到了單攝像頭模擬人眼虛化的效果,但問題是畫素之間的距離太近,得到照片的差異很小,沒辦法像普通雙射那樣準確,於是谷歌把5個手機綁在一起,到全球各地去拍照,再用成千上萬張照片訓練出一套景深演算法。即便只有一隻眼睛,也能依據已有的模型分離出主體和背景。同樣能模擬出前景清晰,後景模糊的效果。

    這與人識別位置的方式非常相似,不僅利用雙眼的相位差,還根據陰影紋理遮擋等資訊。以及自己的鮮豔知識去判斷物體的位置,從模擬人眼的角度來看,一顆攝像頭好像真的就夠了,畢竟人眼看到的畫面是固定的。不能像變焦鏡頭一樣放大縮小。那為什麼還要多個攝像頭呢?實際人眼和鏡頭還不太一樣。水平方向雙眼能夠分辨顏色和位置的視角,只有60度能辨別符號的視角,只有40度對應到相機鏡頭中,35毫米鏡頭的視角是60 63度50毫米的視角是46度,這也是為什麼大多數人覺得35毫米到50毫米是最接近人類視角的,而手機中的兩顆鏡頭26毫米和52毫米。基本也覆蓋了人類能看清的區域。即便谷歌的superb restaurant能超解析度演算法,把放大的影象當成長焦來用,但本質還是高速連拍,但張拍攝的時間很短,合成後的照片比數字變焦更好。

    但還是比不上原生的光學變焦。就連谷歌下一代piexl4要加入長焦攝像頭了,可見單色加演算法能解決細化問題。還暫時不能解決焦段的問題,兩顆攝像頭就能模擬出人眼能看清的範圍。那為什麼還要有第3顆呢?別忘了人的眼球是可以轉動的。加上眼球的轉動,能看到的視角擴大到了120度,而iPhone今年加入第3顆廣角攝像頭。視角是多少呢?也是120度,可能這就是為什麼iPhone的第3顆攝像頭不是80毫米的長焦,而是13毫米的超廣角,像iPhone三星這樣超廣角加廣角加長焦的組合,幾乎能模擬人眼在同一位置看到的所有景物。蘋果把三個攝像頭的色彩白平衡,相位差都調成了幾乎一致。

  • 4 # 中國紅

    並不是攝像頭數量越多拍照越好,鏡頭多更多的是彌補手機在廣角和長焦的不足,一個是拍的更廣一個是拍的更遠,決定畫質的有鏡頭、CMOS和演算法,鏡頭方面手機先天條件決定了不可能有突破,而CMOS是越新的畫質越好,至於演算法每家廠商的調教不一樣,以至於同樣的CMOS不同品牌的手機拍出來效果也不一樣,這就看廠商的調教能力了

  • 中秋節和大豐收的關聯?
  • 唐三藏的本領?