回覆列表
  • 1 # 蘿蔔去換橘子

    但是在科技方面來說值得好好說道說道。

    Face ID人臉驗證 + AR自拍這樣一套全新的攝像頭和神經網路處理方法,才能帶來實時動畫表情Animoji這種全新的功能。

    Face ID,是iPhone X用於替代Touch ID而推出的刷臉認證方式,搭載環境光感測器、距離感應器,還集成了紅外鏡頭、泛光感應元件(flood camera)和點陣投影器,多種配置共同搭建使用者3D 臉部模型。

    增強現實技術(Augmented Reality,簡稱 AR),是一種實時地計算攝影機影像的位置及角度並加上相應影象、影片、3D模型的技術,這種技術的目標是在螢幕上把虛擬世界套在現實世界並進行互動。

    Animoji是在iPhone X上的動畫表情。是iPhone在十週年特別版iPhone X釋出的新功能。其使用面部識別感測器來檢測使用者面部表情變化,同時用麥克風記錄您的聲音,並最終生成可愛的3D動畫表情符號,使用者可以透過iMessage與朋友分享表情符號。

    如果Animoji在客戶拿到手機後真的使用好評,那麼AR營銷也會更受關注。那麼這兩種技術 肯定也會被更廣泛的應用開來。科學技術的研發都不容易,只有越多人能夠去使用去享受科技帶來的便利和樂趣,科學技術才會不斷的成長完善。人類社會才會不斷地進步發展。

  • 2 # 果殼影片

    文:豆奶拿鐵

    iPhone X要發售啦,去年割了的腎長出來了嗎?除了無線充電、OLED螢幕等等新特性,不知道你有沒有注意到Animoji這個新功能呢?

    所謂的Animoji其實很簡單,就是讓手機攝像頭捕捉使用者的面部表情,然後讓手機螢幕上的虛擬形象隨著使用者臉的變化而變化。蘋果公司目前提供包括外星人、便便、貓、雞等12種可供選擇的卡通形象。打個比方,如果你選擇了小狐狸,那麼當你張開嘴大笑時,手機上的狐狸就會跟你做出同樣大笑的表情。

    怎麼樣?這個功能是不是聽起來十分有趣?這看似簡單的一項功能背後,蘊藏的是強大的面部追蹤技術。

    就在十年之前(是2007年不是1997年哦……),面部表情追蹤還是一項很費勁的工作。雖然一些大製作的好萊塢電影啊電視當中都可以看到能做出人類表情的動物或者外星生物——比如紅遍全球的藍色生物阿凡達,但那需要在演員臉上貼上許多追蹤器,再由光學儀器捕捉臉部肌肉的微弱變化,從而模擬出近似的動畫表情。

    這種面部追蹤方法雖然清晰有效,但缺點也很明顯——既費時,又費力,還費錢。這一切都得在攝影棚裡進行,演員們還得足夠敬業去穿上那厚重的動態捕捉服。於是以波利(Pauly)和李(Li)為首的一群研究者們開始瞭如何依靠深度感應攝像頭來使臉部追蹤變得簡單高效的探索之旅。

    然而人的表情實在是太複雜了。每一個表情的細微變化,都牽涉到不同的部位和不同的肌肉的變化。儘管人類可以用簡單的幾個詞語就能描述出一種表情,但對於電腦來說,面部表情這樣不斷變化著的物件實在是毫無規律可循,更別提這些變化還牽涉到不同的光線、不同的場合、不同的角度以及不同人的年齡、種族等等。

    為了解決這個問題,研究者們巧妙地轉換了思路,將面部表情變化轉化成了幾何問題。他們用一系列面部表情的資料來訓練程式的演算法,讓演算法建立可描述的3D資料模型。有了這些計算模型,演算法就可以將掃描到的3D點陣和實際的面部表情相匹配,從而能實時地在虛擬形象的臉上反映出這些表情。

    這項高大上的技術現在可以透過Animoji和因特爾的“口袋阿凡達”程式讓我們普通人也體驗一把。去年美國總統競選時,一家叫Pinscreen的公司就示範了採用臉部追蹤技術製作的虛擬川普發言的片段。儘管影片中川普的表情還有些不太自然,但這預示著在不久的將來,人人都將可以製作屬於自己的虛擬形象。

    不過,伴隨著這項技術的發展,人們也開始產生了擔憂:面部識別技術一旦走向了人臉偽造的方向,會不會世界就真假難辨、亂了套了?

    當然了,目前來看,想到馬上就可以用自己的臉做實時3D動態表情包來和小夥伴鬥圖了,還真有點小激動呢……

  • 3 # 愛範兒

    Animoji 我可以玩一年!

    所謂 Animoji(官方中文譯名為「動話表情」)其實就是 iPhone X 「原深感攝像頭」的一項擴充套件應用。藉助 A11 仿生的強大運算能力,利用「原深感攝像頭」來捕捉人臉的 50 多種肌肉運動,最後以 3D 動畫的形式表現出來。

    在 iPhone X 釋出後,蘋果曾表示「原深感攝像頭」將會開放給第三方開發者進行應用開發。最近,來自臺灣的視覺藝術家 Elisha Hung 在 Tumblr 上釋出了一段影片,展現了「原深感攝像頭」所蘊含的潛力。

    Elisha Hung 利用 iPhone X 的「原深感攝像頭」對他自己的臉部進行拍攝,再利用蘋果提供的 ARKit 獲取資料,並進行 3D 渲染,最終呈現出來的效果如下:

    雖然目前只是一個粗糙的面部建模,但顯然光影、面部細節都已經非常逼真,彷彿整張臉都被 iPhone X「摳」了出來。遊戲開發者 Brad Dwyer 利用「原深感攝像頭」給自己的臉拍了一段自拍,然後提取出其中的建模資料,可見其建模細節極其豐富。

    之前,The Verge 也曾藉助紅外相機拍攝了一段 Face ID 識別人臉的過程,可見「原深感攝像頭」在工作時,實際上已經在人臉上投射了無數的光點,而根據這些光點的變化,iPhone X 得以模擬出以假亂真的人臉模型。

    除了 iPhone X 之外,索尼的 Xperia XZ1 也提供了為人頭進行 3D 建模的功能,不過操作起來要比「原深感攝像頭」複雜不少,實現原理也不盡相同。

    Xperia XZ1 的建模更多是用於 3D 列印,模型雖然細緻,但並不具備動作捕捉的功能,最多隻是到 3D 列印這一步。

    文:肖欽鵬

  • 中秋節和大豐收的關聯?
  • 你們有沒有碰到那種借錢整天死纏爛打的人?