-
1 # 第六元素___
-
2 # JieGer
其實照相機攝影技術,發展已經有幾百年的歷史了,縱觀其發展,從最初的倒影成像原理到現在的數碼變焦,可以說以目前的技術來說,達到了一個新的高分新的技術層面。同時也是一個瓶頸期了,還要在這裡突破,就需要有更新的技術來代替他,當然這需要一個時間,在這個過渡期間內,如今的相機功能之強大都是透過其強大的演算法,那麼演算法的核心當然就是數學物理等相關科學的相互組成相互運算。
舉一個例子吧,以前的相機拍的照片拍出來是什麼樣子,你想要再用色的話就非常有難度了,但是如今的相機透過演算法,在你拍照的時候可以實時的應用演算法技術和長期相關環境綜合判斷,給出你一個最佳的攝影體驗方案。比如說暗光環境下拍攝,他就會判斷你到底是不是暗光還是逆光,會透過演算法調取你相機的那個相關功能,智慧捕捉你照片中的不足的引數,達到一個完美的智慧平衡點,這就是所謂的合成技術,當然這一步不需要使用者自己親自使用,是相機透過大資料透過演算法自己來處理,手機的GPU強大,圖形處理功能之強,我們使用者基本上不會感受到這個處理的過程和一般拍照是一樣的,只需要輕輕的按下快門就OK啦。
所以說如今的相機,比較就是數學與科學的比較,這些領域都是基礎學科性比較深的,在這方面有很大的基礎研究的公司,肯定會有更大的優勢與潛力,所以任正非說這句話的時候,肯定是相信自己的科研團隊,有這個能力去做得更好。
-
3 # 由來由去1987
手機與傳統相機相比最大的缺點就是變焦能力弱,P30 Pro為了解決這個問題在機身內部配置了一個“潛望鏡”攝像頭,使手機的變焦能力大為增強。
基於光學物理的基礎知識,要想拍攝遠處的物體,鏡頭的變焦能力就要求越高,帶來的問題就是攝像頭就必須足夠大。這在追求手機緊湊和纖薄的今天,註定無法被使用者所接受。華為P30將相機側向轉動,這樣便於“隱藏”相機體積。透過稜鏡將光線反射90度進入手機內部,在手機內部形成一條更長的光路,最後以800萬畫素的感測器做為光路終點。
事實證明,這樣的設計可以在手機上實現5倍的光學變焦,相當於老式35毫米格式相機的125毫米焦距。在此基礎上再結合一些數字變焦處理,綜合變焦能力達到10倍。
超光譜感測器
在P30系列誕生以前,智慧手機中的影象感測器只檢測光線的亮度。為了捕捉顏色,
一組微小的濾光器控制到達感測器上每個感光點的光頻率。每個畫素的原始感測器資料只儲存一種顏色的資訊紅色、綠色或藍色。這就是拜耳濾波器,它的圖案是一種棋盤,每一個藍色畫素對應兩個綠色畫素,每一個紅色畫素對應兩個綠色畫素,所以有時又將拜耳感測器描述為RGGB。
這次的華為P30 Pro打破常規,機身上4000萬畫素的主攝像頭採用了一種稱為超光譜感測器的技術來代替拜耳濾波器中的綠色,稱之為RYYB。超光譜感測器不再捕捉傳統的紅/綠/藍光,而是捕捉紅/黃/藍光,這使得P30 Pro有了更好的弱光拍照效能。
為什麼要這麼做?因為自然環境中的黃光更多,提升黃光的捕捉量使相機在昏暗的環境下表現更好。華為的ISO靈敏度高達409600,高於去年P20 手機102400的水平。
飛行時間感測器
P30 Pro配置有一個飛行時間感測器(TOF),它對於當前所有手機來說都是新技術。飛行時間感測器的作用並不是拍照,而是透過它來感知3D場景深度資料。例如,相機可以發現它應該為前景中被陰影籠罩的人物增強曝光,而不是關注人物後方明亮的風景。
3D場景深度資料同時有助於人工智慧任務,比如識別人臉和執行增強現實應用。最重要的是,3D場景深度資料能幫助相機實現更好的類似單反背景虛化效果的效果。同時,P30 Pro還有其他照片功能,包括人工智慧增強的黑暗場景夜間模式、模擬長時間曝光的絲綢效果。
總之,P30 Pro堪稱現今手機中在照相功能上運用最多新技術的手機。遠景變焦、超光譜感測器和TOF感測器等技術的應用,一定能讓P30在手機拍攝領域獨樹一幟,也會成為推動手機產業繼續發展的重要力量。
-
4 # 手機攝影手冊
“舉一個例子,P30 手機的照相就是數學。現在的影象不是照出來的,是數學算出來的。因為人的眼睛相當於有一億個鏡頭,相機就一個鏡頭,我們手機透過一個鏡頭進來的感光點,用數學的方式分解成幾千萬個視覺鏡頭,再重新還原出來......”
這段話是任正非5月21日和媒體公開溝通中關於“您以什麼樣的機緣,認識到投入基礎學科的重要性?”的一段回答。
這話說的沒錯,其實不光是P30,包括單反、微單、卡片機和手機,所有的數碼相機都是這樣一個成像原理。所以說任正非這段話其實並沒有什麼新意,我想他的重點應該是說數學和物理等基礎學科對電子工業中的重要性。
“一個基礎理論形成需要幾十年的時間,如果大家都不認真去做理論,都去喊口號,幾十年以後我們不會更加強大。就拿晶片來說,光砸錢是做不成的,得‘砸’數學家、物理學家、化學家……”
據介紹,華為在全世界設有26個研發能力中心,擁有在職的數學家700多人、物理學家800多人、化學家120多人。
-
5 # 煙雲丶逸
除非你用原來的膠片相機,影象照到底片上,而且底片只能用顯影劑這種化學手段洗出照片,這個過程基本上都是物理和化學過程,不涉及數學。
否則,你用手機、數碼相機、數碼單反等裝置,照相從頭到尾確實就是個數學處理過程,只有打印出照片的最後一步,有化學過程。
-
6 # 老邵AAA
算出來的照片一張照片就是佔用十幾M的容量,同樣的照片在單反上面只佔用五六M的容量,兩張照片在細節上面也是無法相比的。
-
7 # 太平洋電腦網
因為我們看到照片是這樣的:
①手機進行拍照,把得到的光線進行處理,轉化為電訊號;
②手機的處理器對於電訊號進行處理,然後再把資訊傳遞到螢幕上;
所以,P30的影象確實是算出來的,因為CMOS獲得的光線已經從影象轉化成電訊號了。
透過演算法進行畸形糾正、降噪、AI識別等等,圖片是明顯經過演算法調整的。所以說,這是算出來也是正常。
所以,在黑夜的時候,我們看到很多高階的手機/相機拍出來的照片比真實環境還要亮,因為這些機器的感光本身比人的眼睛還要強,同時還加上演算法加持,所以拍出比實際環境看起來還要亮的照片。
不只是手機,相機也是這樣的,除非是採用“菲林”的相機,數碼相機都是把光訊號轉化成電訊號,經過演算法和晶片處理之後才從電訊號換成光訊號出來的。
如果你玩過拍照,基本上能夠理解這一原理。
-
8 # 打腫馬
就是經過各種最佳化處理的意思,和美顏差不多的演算法處理,去掉各種噪點,然後對色彩還原演算法最佳化。看看美顏出來的照片是不是祛斑美白嫩膚等等處理過後是不是象嬰兒一樣。
-
9 # MLA2020
任何數碼裝置拍照,都是光學成像+影象處理演算法,不僅僅是手機。對於影象處理來說,那完全是針對影象裡每個畫素值的數學運算,所有的影象處理軟體都是這個道理,說到底,就是讓很多人都頭疼的矩陣運算和數理統計分析。
-
10 # 燮zz
首先我懷疑這句話是不是任正非本人說的,按理來說這是一個大家都懂的常識,攝影數碼化後,肯定是要經過處理器複雜的數學運算才能輸出影象的,如果說相對於傳統的相機制造技術,華為的p30系列有哪些區別於它們的地方,尤其是在哪一塊運用到了更多的數學演算法,那我覺得是以下三點:
1.光學變焦
手機的鏡頭因為受到體積的控制,無法放得下結構複雜的變焦鏡頭,因此手機是不能進行真正的光學變焦的,只能實現數碼變焦,而數碼變焦是一種非常折衷的變焦方式,其原理是用感測器上的部分畫素來進行“插值”運算,把畫素放大從而實現變焦效果,這樣帶來一個嚴重後果就是成像質量大幅度下降,現在的多鏡頭手機都宣稱可達到光學變焦效果,其原理就是利用一枚超高畫素的主鏡頭和一枚不同焦段的副鏡頭來進行組合,當變焦位於這兩個焦段中間處的時候,就使用主鏡頭與副鏡頭的部分畫素來進行結合,可大幅度降低這種數碼變焦帶來的畫質損失,幾乎能達到光學變焦的效果。 華為的P30pro就是運用了這個原理,可實現16-160mm的無縫變焦效果,相當於是10倍的光學變焦。
華為p30ro總共用上了四枚鏡頭,先拋開當作距離感測器的TOF鏡頭不說來簡單介紹三枚負責成像的鏡頭,它們分別為:
4000萬畫素的主攝(27mm,f1.6)
2000萬畫素的超廣角鏡頭(16mm,f2.2)
800萬畫素的潛望式長焦鏡頭(125mm,f3.4)變焦時候這三枚鏡頭的合作方式是這樣的,超廣角畫面由超廣角鏡頭獨立完成,超廣到中焦部分的變焦效果由超廣角與主攝像頭共同完成,也就是超廣角負責邊緣部分的細節取樣,主攝負責捕捉中心部分的細節,然後到主攝像頭獨立工作,主攝像頭在中焦段可實現3倍的類似於光學變焦的效果,其原理是4000萬縮成1200萬畫素的時候可放大3.3倍的效果,接著是主攝像頭和長焦鏡頭共同完成中長焦段的變焦效果,也就是主攝負責對邊緣部分取樣,長焦鏡頭捕捉中心細節,最後是長焦鏡頭獨立工作。這個涉及到一個非常複雜的演算法才能達到接近光學變焦的效果,很明顯的,華為是可以完美透過這一關的,畢竟華為在2016年上市的mate9上就已經使用了這種技術,經過多年的沉澱,早已經運用自如。
2.大光圈
受體積和成本的限制,目前大部分手機都是運用恆定光圈的設計,也就是說它沒有像單反鏡頭一樣的機械光圈葉片結構的: 因此手機鏡頭並不能像單反一樣控制光圈的大小。那有人說了,為什麼華為的手機都是可以調節光圈大小的呢?這實際上這並不是傳統意義上的光圈大小,華為手機拍攝介面標記的大光圈級別4和鏡頭的F4光圈完全就是兩碼事,這個大光圈級別4實際上只是一種虛化等級。 但是這種虛化效果和單反鏡頭的物理虛化是完全不同的,單反鏡頭的虛化效果和人眼視覺更加的相像,(主體的)焦點合對了的地方才清晰,其他地方都是隨著距離的變遠模糊程度越重,而且主體離鏡頭越近,離背景越遠,虛化效果就越強;主體離背景越近,離鏡頭越遠,虛化效果就越弱。這是一個物理學過程,這種虛化效果是不需要經過電子化處理的。但是手機卻不是這樣的,手機的虛化效果,和後期摳圖+模糊的原理是一樣的,如下圖的這種。
在華為的p30pro出來之前,手機的AI演算法都是不能精確判斷主體離鏡頭和背景的遠近,就是說你拍一張照片出來,我只負責摳圖然後區域性模糊就完事,這種結果就是導致下面的這種奇奇怪怪的效果出現,就像是後期把整個人從畫面中摳出來了一樣。華為p30pro加入了一個叫做TOF的感測器,也就是在閃光燈下面的那個小鏡頭,這個鏡頭不負責成像,而是起到一個測量距離的作用,它可以精確判斷物體距離鏡頭的遠近,從而進行更精確的虛化,讓大光圈效果更接近物理性虛化,更具有層次感。
3.高感光效能
華為p30系列的高感效能在手機鏡頭這一塊可以說得上是遙遙領先的,把其他廠家甩在了背後。
玩攝影的朋友應該都知道,高畫素的最大優點是可以輸出高解析度的照片,但是在低光照的環境下卻會產生非常多的噪點,p30上的索尼IMX600感測器,使用了一種叫做Quad Bayer四畫素合一技術,可以實現2微米的單位感光面積。利用了這種畫素合成技術,帶來的最大好處就是可以在白天實現4000萬畫素的高解析度拍攝,在暗光下又可以輸出1000萬的高質量影象。
p30pro用上了更先進的IMX650感測器,這顆同樣是和索尼共同研發的定製感測器除了可以實現IMX600的所有功能外,還用上了一種新的畫素排列,由之前經典的紅綠藍畫素組合變成了紅黃藍的組合,就是從RGGB排列變成了RYYB,這種濾色器替換的顯示技術實際上以前就有給用過,例如LG公司研發的RGBW排列,用了白色畫素來代替其中的一個綠色畫素來增加進光量,但是像華為的這種整個畫素給替換掉的大膽做法,目前還是業界唯一。 為什麼會用黃色畫素代替綠色畫素呢?
人的眼睛中只含有紅綠藍三種視覺細胞,它們對紅綠藍三種光的敏感度不同,但只是敏感的程度不同而已,一個紅色感光細胞依然能夠識別到部分的綠和藍色光,而這些不同比例的光的混合就變成了其他的顏色,這也是我們為什麼能看到色彩斑斕的世界的原因。 從上面這個三色圖中可以看得出來,黃色光是由綠色光和紅色光混合而成的,如果在感測器中用黃色濾鏡代替綠色濾鏡,實際上就是共同捕捉到了紅綠兩種光線,所以這個過程間接提升了紅色光的進光量從而加強了感測器的感光效能(增加40%左右的進光量),只要在後期演算法中“插值”進去更多的綠色畫素,還有糾正紅色畫素的比例就可以得到一張正常色彩的照片。不過大家想一下就知道,一塊4000萬畫素的感光元件,總共含有8000萬個這種黃色畫素點,全部轉換成綠+紅畫素那得是多麼大的一個工作量,而且這種以畫素點的替換來換取高感的做法,非常容易出現色偏和飽和度過低的情況,這樣就極其考驗手機ISP的演算法了。
其實一張照片無論是照出來的還是算出來的,如果相機的這種技術改進能有效提升使用者體驗,那麼它們就應該普及開來,希望華為作為這一塊的領頭羊,能夠開發出更先進的技術,讓我們這些普通攝影愛好者受益。
回覆列表
他說的沒錯啊,現在的手機照相確實都是靠演算法算出來的。蘋果為什麼靠著萬年不變的1200W攝像頭照相也很優秀就是因為演算法足夠牛逼。如果沒了優秀的調教你再試試,拍出來的都是AV畫質