你用手機打電話,我用意念點外賣
AI 技術發展,語音助手之間的大戰也打得如火如荼,但對於受眾來說,即使這東西再好用,但要若無其事的在人群中喊一句 Siri 給我訂個外賣,或者 Siri 幫我查一下明天的天氣,都還是會羞恥心爆棚。
要做到讓語音助手不再侷限於手機和智慧音箱,而是如同電影《Her》中一樣隨時隨地陪伴身邊給予幫助,除了該領域的科技發展,看來還得大家一起跨越心理障礙。倘若在開口之前,人工智慧便讀取到使用者的用意,那一切就簡單的多了。
使用意念來進行控制,在幾十年前的人看來大概只能稱之為魔法降臨,但幸運的是我們生活在這個技術大爆炸的年代,得以認識甚至有機會體驗到許多新奇的事物。
但凡事總有好有壞,例如大資料讓網路更瞭解我們的喜好卻同時不斷蠶食我們的隱私,而現在當意識可以被利用,雖然大大便捷了日常生活,也讓我們最後一片自我的淨土有陷入被曝光的危險。
一項來自MIT的研究專案,將無聲控制從理念帶入現實,並做出了工程樣品Alter Ego。該專案的主導人,Arnav Kapur 在佩戴 Alter Ego 接受美國節目60 Minutes 採訪時,向大眾展示了其基本使用場景。
▲Arnav kapur 佩戴 Alter Ego
主持人手持一張寫滿了各種稀奇古怪冷知識的A4紙,並逐一進行詢問,而Arnav Kapur則一一回答。如保加利亞的最大的城市是哪個?索菲亞。
整個過程他並未藉助任何其他工具,而是透過意念將問題拋給佩戴在臉上的ALterEgo,並透過它進行資訊檢索後,藉由骨傳導耳機裡傳來的語音獲得最終答案。
▲接受 60 minutes 節目組測試
當然除了用在知識大賽上作弊以外,AlterEgo還有許多其他應用場景。
▲遠端控制電視
▲詢問時間
據該專案的負責人Arnav Kapur透露,開展這個專案的初衷是為了解決某些聲音無法有效被識別而又需要依靠遠端控制的時刻,例如戰鬥機的飛行員的工作環境十分嘈雜,聲音並不能被很好的檢測,這個時候無聲控制系統就顯得幫助很大了。
而現在,專案團隊希望AlterEgo能在將來與物聯網技術相結合,成為更加便利的可穿戴控制裝置。試想一下如果能與之前暴死的Googleglass相結合的話,那麼一念之間萬事都將在眼前,萬物都能控制。
▲並不好用的Google Glass
AlterEgo 的確很酷,無需語音單靠意念就能做到遠端控制,聽起來很玄學,但其背後卻有著十分可靠的科學依據。
當我們開始思考時,大腦電波開始活動,面板表層也會有微妙的電脈衝在活動著。傳統意念控制,一般會佩戴在頭部,檢測大腦電波併發出指令。但這種指令往往是行為能動指令,而非具體單詞或句子的破譯。
▲使用意念遙控汽車
為了能順利獲得未說出口的語音指令,AlterEgo 團隊將命令檢測儀器安排在了下顎及喉部,而這樣做的原因就在於,當我們要說出一個句子時,仍舊需要大腦發出指令,發聲部位接收到指令後會產生肌肉訊號。
即使這個動作最後並未成行,但肌肉訊號依然存在。AlterEgo正是透過檢測這種外部不可見的微妙肌肉訊號,並加以分析形成言語指令。
關於內部語言系統與外部身體之間的聯絡這一概念,從上世紀50年代開始就引起了廣泛注意,針對的調查和研究也從那時開始。但即使是60多年過去了,要準確的從面部檢測到具體言語單詞還是十分有難度的。
為了能完成這個目標,AlterEgo團隊進行了數次實驗。首先為了要確認臉部哪些區域可以更可靠的檢測到肌肉神經訊號,他們進行了四次同一個單詞的默唸,並且每一次都將16個電極檢測組安排在不同區域進行檢測。
結果表明,人的臉部有七個特定的電極位置始終可以區分默讀的單詞,於是依據這項實驗成果團隊造出了AlterEgo的原型機,接觸下巴及臉部的位置安置了七個觸點分別對應七個特定的電極位置。
之後經過篩選發現僅保留四個觸點也能夠達到同樣的效果,於是便改進成為了現在的更美觀用於佩戴的AlterEgo。
在蒐集到了神經訊號後,該團隊又進行了大量的資料分析,將不同的訊號與相應的言語單詞對應翻譯,最終透過系統形成一條完整的語言命令。
當然這套運算系統並不是放之四海而皆準的,不同的人其神經訊號並不完全一致。所以為了測試這套裝置的可用性,他們在10名志願者身上進行了測試,根據個體的不同分別定製了神經訊號的定製演算法,最終由神經訊號翻譯為具體言語的準確率平均在92%左右。
由於必須要使得發聲部位能順利接收到大腦發出的指令併產生肌肉訊號,所以這個無聲意念控制要求使用者要將指令在心中默唸,這需要一定的專注力。
不過也正因如此,所以這套裝置目前而言還比較安全,並不會侵犯到使用者的隱私,隨意讀取個人意識。
你用手機打電話,我用意念點外賣
AI 技術發展,語音助手之間的大戰也打得如火如荼,但對於受眾來說,即使這東西再好用,但要若無其事的在人群中喊一句 Siri 給我訂個外賣,或者 Siri 幫我查一下明天的天氣,都還是會羞恥心爆棚。
要做到讓語音助手不再侷限於手機和智慧音箱,而是如同電影《Her》中一樣隨時隨地陪伴身邊給予幫助,除了該領域的科技發展,看來還得大家一起跨越心理障礙。倘若在開口之前,人工智慧便讀取到使用者的用意,那一切就簡單的多了。
Geek君有話說使用意念來進行控制,在幾十年前的人看來大概只能稱之為魔法降臨,但幸運的是我們生活在這個技術大爆炸的年代,得以認識甚至有機會體驗到許多新奇的事物。
但凡事總有好有壞,例如大資料讓網路更瞭解我們的喜好卻同時不斷蠶食我們的隱私,而現在當意識可以被利用,雖然大大便捷了日常生活,也讓我們最後一片自我的淨土有陷入被曝光的危險。
無聲的控制一項來自MIT的研究專案,將無聲控制從理念帶入現實,並做出了工程樣品Alter Ego。該專案的主導人,Arnav Kapur 在佩戴 Alter Ego 接受美國節目60 Minutes 採訪時,向大眾展示了其基本使用場景。
▲Arnav kapur 佩戴 Alter Ego
主持人手持一張寫滿了各種稀奇古怪冷知識的A4紙,並逐一進行詢問,而Arnav Kapur則一一回答。如保加利亞的最大的城市是哪個?索菲亞。
整個過程他並未藉助任何其他工具,而是透過意念將問題拋給佩戴在臉上的ALterEgo,並透過它進行資訊檢索後,藉由骨傳導耳機裡傳來的語音獲得最終答案。
▲接受 60 minutes 節目組測試
當然除了用在知識大賽上作弊以外,AlterEgo還有許多其他應用場景。
▲遠端控制電視
▲詢問時間
據該專案的負責人Arnav Kapur透露,開展這個專案的初衷是為了解決某些聲音無法有效被識別而又需要依靠遠端控制的時刻,例如戰鬥機的飛行員的工作環境十分嘈雜,聲音並不能被很好的檢測,這個時候無聲控制系統就顯得幫助很大了。
而現在,專案團隊希望AlterEgo能在將來與物聯網技術相結合,成為更加便利的可穿戴控制裝置。試想一下如果能與之前暴死的Googleglass相結合的話,那麼一念之間萬事都將在眼前,萬物都能控制。
▲並不好用的Google Glass
你所看不到的微妙資訊傳遞AlterEgo 的確很酷,無需語音單靠意念就能做到遠端控制,聽起來很玄學,但其背後卻有著十分可靠的科學依據。
當我們開始思考時,大腦電波開始活動,面板表層也會有微妙的電脈衝在活動著。傳統意念控制,一般會佩戴在頭部,檢測大腦電波併發出指令。但這種指令往往是行為能動指令,而非具體單詞或句子的破譯。
▲使用意念遙控汽車
為了能順利獲得未說出口的語音指令,AlterEgo 團隊將命令檢測儀器安排在了下顎及喉部,而這樣做的原因就在於,當我們要說出一個句子時,仍舊需要大腦發出指令,發聲部位接收到指令後會產生肌肉訊號。
即使這個動作最後並未成行,但肌肉訊號依然存在。AlterEgo正是透過檢測這種外部不可見的微妙肌肉訊號,並加以分析形成言語指令。
關於內部語言系統與外部身體之間的聯絡這一概念,從上世紀50年代開始就引起了廣泛注意,針對的調查和研究也從那時開始。但即使是60多年過去了,要準確的從面部檢測到具體言語單詞還是十分有難度的。
為了能完成這個目標,AlterEgo團隊進行了數次實驗。首先為了要確認臉部哪些區域可以更可靠的檢測到肌肉神經訊號,他們進行了四次同一個單詞的默唸,並且每一次都將16個電極檢測組安排在不同區域進行檢測。
結果表明,人的臉部有七個特定的電極位置始終可以區分默讀的單詞,於是依據這項實驗成果團隊造出了AlterEgo的原型機,接觸下巴及臉部的位置安置了七個觸點分別對應七個特定的電極位置。
之後經過篩選發現僅保留四個觸點也能夠達到同樣的效果,於是便改進成為了現在的更美觀用於佩戴的AlterEgo。
在蒐集到了神經訊號後,該團隊又進行了大量的資料分析,將不同的訊號與相應的言語單詞對應翻譯,最終透過系統形成一條完整的語言命令。
當然這套運算系統並不是放之四海而皆準的,不同的人其神經訊號並不完全一致。所以為了測試這套裝置的可用性,他們在10名志願者身上進行了測試,根據個體的不同分別定製了神經訊號的定製演算法,最終由神經訊號翻譯為具體言語的準確率平均在92%左右。
由於必須要使得發聲部位能順利接收到大腦發出的指令併產生肌肉訊號,所以這個無聲意念控制要求使用者要將指令在心中默唸,這需要一定的專注力。
不過也正因如此,所以這套裝置目前而言還比較安全,並不會侵犯到使用者的隱私,隨意讀取個人意識。