回覆列表
  • 1 # 世聞word

    谷歌語音支付助手,聽著還不錯!其工作原理如下!

    在安裝谷歌助手之後,移動裝置可以藉此識別出不同使用者的聲音及身份,從而提供個性化的使用配置。目前,谷歌已在一些智慧音箱產品中進行語音支付的測試,可供購買的商品和服務還有一定的限制。使用者在實際使用中,可以在“支付”設定選單中看到“用語音匹配確認”的選項,開啟後,當用戶需要支付時只需要說句話,進行語音識別,從而完成支付。當然,使用者也可以隨時在谷歌助手的設定中關閉該項語音支付的功能。谷歌稱,除了安裝谷歌助手的裝置外,在所有連通使用者谷歌賬號的裝置中都可以透過語音匹配來完成移動支付。

  • 2 # 汙水處理裝置

    理論上來說,語音支付由於在支付方式上更加自由,因此能夠聯想到的支付場景就更多了,不方便掏手機的時候使用語音再好不過了。如果測試順利的話,Google 將會很快在各地推開這個支付方式。據悉,目前測試 Google 語音支付的商家一般都集中在餐飲領域,比如麥當勞、Papa John’s 等等,因為人們進入這些場所意味著已經決定了要進行消費,如果只是設定在服裝店或是其他奢侈品店顯然不會有可觀的消費率,自然也就達不到測試的目的。

    在 Google 釋出測試訊息之後不久,針對 Hands Free 的功能設計就有人提出了這樣的疑問,既然是語音支付,就應該透過使用者的聲音特徵採集自動進行資訊確認,而不是靠店員詢問使用者名稱字進而展開樣貌比對,說白了這並不算真正意義上的“語音支付”,同時這樣的支付方式與 Apple Pay 或是 Android Pay 比較其支付效率能夠提升多少還有待考證,從支付市場佈局的角度來看,Google 推出語音支付只是多了一個爭奪蛋糕的小手段,就目前的技術支援和使用者使用習慣來說,要想成為主流支付方式還有很長的路要走。

  • 3 # 蹬腳踏車的搬磚的

    不完全看好,或者直接說不看好。

    因為人臉識別已經非常成熟的在運用了。不僅是日常支付和去實體店買東西,很多稍大的火車站都在用,包括這次疫情的各種健康寶。

    這種情況下,語音識別的優勢,只能是不願揭開面罩的穆斯林女性了。

    人臉輕易不會改變,而方言則具有多樣性,這點也有很大不定數和難度。

    不要神化谷歌,就像不要神化bat盲目崇拜領袖一樣。這種大公司內部孵化的專案多如牛毛,成功的寥寥。

    反過來思考為什麼選擇語音而不是人臉影象,語音相比人臉圖片,更節省頻寬。

  • 4 # 三易生活

    隨著技術的進步,如今移動支付的手段也早已呈現出日新月異的景象,從早前輸入繁瑣的密碼,現在已經有了更加方便安全的指紋與人臉識別。不過現在在智慧手機上已經很常見的聲紋識別,卻很少被應用到支付領域。而在近日有訊息顯示,谷歌方面已經開始著手在旗下產品中,落地這項“張嘴就能付錢”的語音支付功能。

    據相關媒體的報道顯示,目前谷歌已經正在測試一項新功能,將允許消費者使用語音匹配(Voice Match)進行授權確認支付。而谷歌方面也證實,並不是所有的購買都會提供語音識別,現階段這項功能僅適用於APP內購與餐廳訂單,並不適用於谷歌購物(Google Shopping)。

    按照該報道中的說法,這一語音支付功能原本計劃在今年I/O開發者大會上釋出,但由於疫情的原因只能跳過釋出直接開始測試。目前在位於Google Assistant (谷歌語音助手)的支付介面中,就能看到“Confirm with Voice Match”的選擇。

    事實上,語音支付這項技術其實並不新潮,甚至於比語音助手所依賴的自然語言處理(NLP)更加古老。沒錯,語音支付與自然語言處理儘管說都與語音相關,但二者卻有著天壤之別,語音支付的本質是進行聲紋識別,但聲紋識別顯然並不等於語音識別。

    而聲波傳輸是利用聲音作為傳輸方式的一種資料通訊模式,比如我們說話的過程,就可以理解為把訊號編碼成聲音的過程。而聆聽的過程,則是把音訊訊號解碼成語言文字的過程,所使用的漢字與拼音之間的對應關係,其實就相當於是音訊協議。

    但聲紋識別則是個性識別,需要透過提取語音中的聲紋特性,判斷說話的人是誰,也就是解決“誰在說話”的問題。而語音識別是共性識別,判斷的是說話的內容,解決“說了什麼”的問題。顯而易見,在語音支付中最重要的,是判斷說出支付命令的人是誰。

    由於每個人的發聲器官在尺寸與形態方面大機率不會完全一致,因此這些差異也導致了發聲氣流的改變,進而產生了聲紋的差異。所以我們才能“未見其人,先聞其聲”,透過音色、音調和說話習慣,可以判斷聲音主人的身份,因此同理也能用演算法提取語音資訊中明顯的、抽象高維的聲紋特徵,並用深度學習來訓練模型,進而利用具備獨特性的生物特徵,來證明“我是我自己”這樣的命題。

    事實上,使用聲紋識別來完成語音支付的過程很簡單。就是使用者發出帶有確定命令的聲波,終端裝置獲取這一聲波並轉化為會話(Session),並將具體的商品資訊以及交易號傳送到谷歌後臺,其在伺服器端匹配了聲紋資訊後就能開始進行交易操作,最後再將完成交易的資訊,推送到谷歌語音助手中。

    而在谷歌此次確認測試語音支付之前,亞馬遜方面在去年秋天就已經開始允許使用者使用語音命令在自家的Alexa上支付賬單,一旦使用者使用類似“ Alexa,支付我的移動賬單”來批准交易,Alexa將使用Amazon Pay支付賬單金額,並透過使用者註冊的手機號碼傳送確認。此外,國內市場的天貓精靈也早已可以使用語音支付,根據阿里方面公佈的資料顯示,僅在去年雙十一期間,天貓精靈上就共有105萬筆訂單是透過說話的方式支付成功。

    不過谷歌想要實現的,顯然並不僅僅是在自家Google Home智慧音箱上使用語音支付,而是瞄準了適配場景更為廣闊的智慧語音助手。不過谷歌能想到的,亞馬遜與阿里難道想不到嗎?在智慧語音助手上全面接入語音支付,毫無疑問會大幅度提升使用者的使用體驗,畢竟相比於人臉與指紋識別,聲紋識別的便捷性要高得多。

    但亞馬遜與阿里選擇將這一功能侷限到智慧音箱這種通常放在家中的裝置上,其實極有可能是有一番深意的。語音相比於指紋或者面部資訊來說由於有著可控性更低的因素,畢竟使用者可以自主決定是將手指放在指紋識別模組上,或將臉放在鏡頭前,但卻無法這樣控制聲音的傳播。

    更為重要的一點是,指紋資訊很難被採集,面部識別通常需要配備活體檢測,但是聲紋識別不僅很容易收集,同時也很難判斷使用者在說出支付命令時的狀態。再加上如今AI技術已經全面擴散,透過深度學習模型、波形編輯工具,拼接出指定內容的語音資料,幾乎完全可以復刻出使用者的聲紋頻譜。

    並且語音支付的安全問題不僅僅只出現在客戶端,服務端同樣面臨也有一定的風險。語音支付可以看做是一次資料互動,例如cookie機制所採用的是在客戶端保持狀態的方案,而Session(會話)機制採用的是在伺服器端保持狀態的方案,在使用者第一次訪問伺服器時會為客戶端建立一個Session,並透過特殊演算法算出一個Session的ID,用於標識物件。

    然而由於語音支付並不是一次性行為,使用者下次與伺服器進行資料互動就需要透過SessionID來完成。然而,SessionID的實現機制導致了其可能會遭到劫持,比如說經典的XSS跨站點指令碼攻擊、網路嗅探、代理人劫持等不同攻擊模式,如果SessionID被劫持,駭客就能獲得目標使用者的合法會話,那麼接下來就能像信用卡盜刷一樣掏空被盜者的錢包。

    因此這或許也是谷歌自己坦言,如果反饋與效能都太過負面,該功能甚至可能不會向公眾推出的重要原因之一。因此在谷歌沒有解決至關重要的安全性問題之前,想要張張嘴就能完成購物體驗,或許暫時只能在智慧音箱上得以實現了。

  • 中秋節和大豐收的關聯?
  • 假如給你金錢和愛情二選一,你會怎麼選?為什麼?