-
1 # 鋼鐵至尊
-
2 # 大話精神
一項新的研究發現,大腦掃描可以讀取人類的情緒,精確度高達90%。研究人員能夠預測對喚起性影象的負面情緒的強度。他們發現,負面情緒具有特定的“neural signature”,而計算機可以識別。
研究者說,“這意味著僅憑大腦成像就有可能準確揭示某人的感覺。眾所周知,情感難以定義和測量,而這個發現對於提高我們對情感產生和調節的理解具有巨大影響。此外,當人們有異常情緒反應時,這些新型的神經措施可以準確識別,有利於調節個體健康和心理功能。”
研究設計了能引起負面反應的一些照片,它們包括身體傷害、仇恨團體和侵略行為的內容等,182例參與者看了這些照片。透過大腦掃描,計算機能夠學習並識別負面情感的“神經簽名”。研究者發現,這種模式可以很好的預測厭惡體驗的程度和型別。另一個令人驚訝的發現是,這種大腦的情緒簽名比大腦資料能更好的預測一個人的感覺。該研究發表在PLOS Biology雜誌上。
-
3 # 科技行者
深度學習透過人臉估算情緒的能力已經愈發強大——具體來講,只需要檢視影象內容,其即可將其中人們的快樂或悲傷心情整理出來。那麼我們是否能夠將這項技術應用於電視新聞,從而評估一週內新聞中所有出鏡者的整體情緒傾向?雖然基於AI技術的人臉情緒評估仍是一個年輕且正在快速發展的研究領域,但透過本次利用谷歌雲AI對網際網路檔案館內電視新聞歸檔中的一週電視新聞報道進行分析,我們發現即使是單純利用現有工具方案,也足以從新聞內容當中提出出大量可見情緒元素。
為了更好地理解電視內容,我們選擇對CNN、MSNBC以及FOCUS新聞網以及來自舊金山的其它媒體分支機構——KGO(ABC)、KPIX(CBS)、KNTV(NBC)以及KQED(PBS)——的早晚播出新聞內容進行情緒識別,具體時段為今年4月15日至4月22日。作為分析物件的電視新聞總時長為812小時。我們選擇利用谷歌的Vision AI影象理解API進行分析,並啟用了其中的所有功能,包括人臉檢測。
人臉檢測與人臉識別存在著很大差異。前者只計算影象當中存在的人臉,而並不會嘗試分辨此人究竟是誰。總體來講,谷歌的視覺化API僅提供人臉檢測功能,而並不提供人臉識別功能。
以谷歌API為例,對於每一張臉,它還會估計其正在表達的以下四種情緒的各自可能性,包括喜悅、驚訝、悲傷與憤怒。
為了探索電視新聞中的面部情緒世界,我們將總長812小時的電視新聞轉換為1 fps預覽影象序列,並透過Vision AI API加以執行,總計得出1261萬2428臉-秒(即總幀數乘以各幀當中能夠檢測出的清晰人臉數量)。
其中,3.25%展現出喜悅的情緒,0.58%表現出驚訝,0.03%表現出悲傷,0.004%表現出憤怒。
可以看出,谷歌的Vision AI API在處理線上新聞影象時,認為喜悅與驚訝情緒的出現比例要遠遠高於憤怒與悲傷我們還無法確定這究竟只是一種整體性的分析錯誤,還是新聞影象中確實存在這樣的基本情緒表達趨勢,或者說谷歌的演算法對於喜悅與驚訝這兩種情緒的識別能力更強。無論如何,即使谷歌演算法確實對於某些特定情緒擁有著更高的敏感度,但這種傾向對各家新聞站點而言仍然是公平的,因此我們可以直接對七大站點中的四種面部情緒表達做出比較。
下圖所示為這一週時間之內七個新聞站點當中全部人臉影象呈現出四種情緒中任意一種的各自佔比。其中ABC、CBS與NBC似乎面部情感表達最為活躍,其次是FOCUS新聞網、MSNBC與CNN,最後是PBS與CNN。
由谷歌的Vision AI API分析得出,清晰的人臉影象在2019年4月15日至4月22日期間表達喜悅、驚訝、悲傷或憤怒情緒的百分比。
在這份排名當中,喜悅情緒佔據的比例最高,具體如下圖所示。
由谷歌的Vision AI API分析得出,清晰的人臉影象在2019年4月15日至4月22日期間表達“喜悅”情緒的百分比。
下面來看關於驚訝的情緒,其排名在不同電視站點上出現了全面倒轉。PBS的驚訝情緒密度最高,CBS居中,ABC落在最後。
但考慮到這四種情緒之間並非完全隔離,因此ABC的喜悅情緒密度更高,並不代表著其驚訝識別率就一定更低。
由谷歌的Vision AI API分析得出,清晰的人臉影象在2019年4月15日至4月22日期間表達“驚訝”情緒的百分比。
悲傷是一種相對不太常見的情緒,但在各站點之間仍然存在著明確的分層。其中NBC中包含的悲傷情緒比MSNBC多了三倍半。
由谷歌的Vision AI API分析得出,清晰的人臉影象在2019年4月15日至4月22日期間表達“悲傷”情緒的百分比。
最後是憤怒,這種強烈的情緒在各家新聞站點當中的出現機率最低。儘管如此,其仍然表現出明確的分層趨勢。FOCUS新聞網當中的憤怒情緒比位列第二的PBS多出1.5們中,而且幾乎達到比例最低的NBC的十倍。
事實上,FOCUS新聞網中出現的憤怒面孔比MSNBC和CNN加起來還多。
由谷歌的Vision AI API分析得出,清晰的人臉影象在2019年4月15日至4月22日期間表達“憤怒”情緒的百分比。
最重要的是,AI對於人臉面部表情這類複雜且存在細微差別的事物進行判斷的能力,目前尚處於早期發展階段,而且仍是一大非常活躍的研究領域。因此,這裡公佈的結果恐怕無法被視為對各個新聞站點主流情緒表達的確定性結論。相反,我們可以將其看成是深度學習技術在幫助我們立足更深層次進行維度探索的初步嘗試。
綜上所述,深度學習開闢了我們理解視覺世界的新領域。立足大規模電視新聞中的物件與活動進行編目,我們終於開始對原本根本無法想象的新維度進行評估——例如本次案例中的面部表情。
最後,正如當下文字情感分析已經變得司空見慣一樣,相信終有一天,視覺情感分析也將得到新興的高階視覺深度學習演算法的支援,從而為我們帶來前所未有的宏觀解讀能力。
-
4 # 智慧情感里奧
人工智慧識別人的情緒,稱為情感計算AC(AffectiveComputing)。目前在自然語言理解中大量使用,已經從幾年前的被嗤之以鼻,到現在的落地應用。
1.情感計算,一般是多模態方式,進行識別。包括從文字資料,影象資料,語音資料。人的情緒變化能從說話內容,微表情,細微肢體動作,語音語調的變化得到反應。
微表情跟語音變化可以用在審案,特殊人群狀態跟蹤等很多領域。
文字資料來判斷,就是自然語言理解的一部分。涉及到情感字典,就是把涉及情緒的詞彙進行詞性標註。
2.情感計算要依賴於大量資料的訓練。
3.情感計算跟自然語言理解一樣,包括情感識別跟情感的生成。
4.機器人未來跟現在都必須加強情感短板,合成語音要更自然必須有情緒,人的互動也是情感互動。所以非常重要。
這是我自己這幾年實踐下來對情感計算的理解。
回覆列表
人工智慧否識別人類的情緒?當然可以,只要人類情緒還是由人類定義,那必然可以進化出能夠識別出的人工智慧,只不過怕到那時候人工智慧已經開始自己定義人類這一另外物種的情緒了。