回覆列表
  • 1 # 使用者7436896219130

    不會用到全部畫素,主要和這幾個原因有關:

    攝像頭的長寬比例一般是4:3或者3:2,而通常的寬屏影片比如全高畫質FHD格式都是16:9格式的,於是必須要做出剪裁,就像下圖,拍攝影片時只用白色部分(全部用起來影象就變形了)。理論上當然可以直接把上述白色部分按實際畫素數壓縮為影片,但是這種影片格式可能在一般的播放器上都無法正常播放,因為主流的影片格式不僅有固定比例,還規定了固定的畫素數要求,比如全高畫質FHD一定是1920x1080,高畫質HD一定是1280x720,於是還需要進一步壓縮。(規定成這樣的規範是因為影片處理需要的計算能力太高,制訂標準時晶片技術還達不到更高的處理能力,目前已經有4K標準的產品出來了。)影象感測器有幾種策略可以把上述第一幅圖的白色部分進一步壓縮,通常是用專門的電路做快速插值演算法,這很好理解。但是這麼做通常會損失一些影象的銳利程度。於是另外有一些感測器採用的不一樣的策略,比如畫素合併(binning),簡單來講就是把2x2或者4x4的畫素塊合併成1個畫素),這對於感測器的畫素數有些要求,如果感測器的橫向正好3840個畫素,那麼壓縮成1080p就是2x2做合併。如果畫素數不湊巧,比如橫向有4000個畫素,那麼還會涉及到一個剪裁,這時拍攝影片時橫向視角會略窄一些。索尼NEX系列的相機就用這個策略。另外有一些感測器也能拍4:3比例的影片,有可能會用起來全部的畫素,但是有時候為了和16:9看起來視場差不多,也會考慮這樣一種策略:或者這樣一種奇怪的策略(松下Lumix LX3):

  • 中秋節和大豐收的關聯?
  • 清朝的神秘組織紅燈照真的存在嗎?