應用

技術

物聯(lián)網世界 >> 物聯(lián)網新聞 >> 物聯(lián)網熱點新聞
企業(yè)注冊個人注冊登錄

AI練就新火眼金睛:看步態(tài)就能識別情緒 準確率高達80.07%

2019-07-04 08:55 智東西

導讀:近日,查珀爾希爾大學(University of Chapel Hill)和馬里蘭大學(University of Maryland)的研究人員們研發(fā)了一種機器學習方法,利用人們步行時的身體語言,解讀他們的情緒。

近日,查珀爾希爾大學(University of Chapel Hill)和馬里蘭大學(University of Maryland)的研究人員們研發(fā)了一種機器學習方法,利用人們步行時的身體語言,解讀他們的情緒。

該算法是目前第一個利用最先進的3D人體姿態(tài)估計技術,來識別步行視頻中目標情緒的方法,它能夠從人的步態(tài)中識別他們的感知情緒(perceived emotion)、效價(valence)和喚醒(arousal),準確率達80.07%。

效價主要表現為人們的消極或積極等情緒,而喚醒則表現為人們情緒的平靜或充滿活力等狀態(tài)。

111.jpg

這一研究成果已于美國時間2019年6月14日發(fā)表在arXiv平臺上,論文名為《利用情感和深層特征識別行走中的情緒(Identifying Emotions from Walking using Affective and Deep Features)》。

四種長效情緒識別

研究人員認為,情緒在人們的生活中扮演著重要的角色,既貫穿了人們的經歷,同時也塑造了人們看待世界和與他人互動的方式。

222.jpg

由于感知情緒在人們的日常生活中有著重要作用,因此自動情緒識別技術在游戲和娛樂、安全和執(zhí)法、購物、人機交互等領域,已經成為了學術界一個重要的研究內容。

在這項技術中,研究人員針對人們的四種情緒進行了研究,分別為快樂、悲傷、憤怒和中性。這四種情緒都能較長時間地影響人們,并能“豐富”人們的步行方式。

研究人員從多個步行視頻語料庫中提取人們的步態(tài),并使用3D姿態(tài)估計技術來識別提取的步態(tài)和步態(tài)表現的情緒特征。

這些3D姿態(tài)會被傳輸到能夠學習長期相關性的長短期記憶模型(LSTM)網絡中,研究人員將利用這一網絡從姿態(tài)序列中獲取特征,并使用多個步態(tài)數據集來訓練這個LSTM網絡。

333.jpg

同時,研究人員還將經過計算的情感特征與深層特征連接起來,并與隨機森林分類器(Random Forest Classifier)相結合,輸出多個獨立決策樹的平均預測,將提取的步態(tài)例子分到上述四種情緒類別中。

多種步態(tài)識別特征

研究人員獲取的步態(tài)特征包括了人們的肩膀姿勢、連續(xù)步伐之間的距離,以及手和脖子之間的區(qū)域。

在身體語言方面,人們的步行方式常常會受到情緒的影響,例如,當人感到壓抑或沮喪時,會比滿足時更聳拉著肩膀。

而機器算法在識別步態(tài)的過程中,頭部傾斜的角度被用來區(qū)分人們快樂和悲傷的情緒,而更緊湊的姿勢和“身體擴張”則分別能識別人們的積極和消極情緒。

值得一提的是,在該機器學習方法的識別功能中,效價在心理學上指行為目標對個體是否能實際滿足自身需求的價值評估,即個體對行為結果的重視程度,它影響著人們行為動機的強度。

另外,喚醒在心理學上,指機體生理性激活的不同狀態(tài)或不同程度的一種生理和心理活動的準備狀態(tài),它主要由感覺興奮性水平、腺和激素水平,以及肌肉的準備性所決定。

444.jpg

而科學家們發(fā)現,喚醒往往與人們增加的運動相對應。因此,研發(fā)人員在利用長短期記憶模型時,還考慮了人們步行速度、加速度,以及手、腳和頭部關節(jié)“運動抖動”的大小。

算法準確率高達80.07%

在人工智能系統(tǒng)處理方面,研究人員提供了一個叫“情緒行走”(Emotion Walk,簡稱EWalk)的樣本。

EWalk是一組包含1384個步態(tài)的新數據集,這些步態(tài)是從24名受試者在大學校園(包括室內和室外)散步的視頻中提取的。

同時,大約700名來自亞馬遜土耳其機器人公司的參與者,還給該數據集的步態(tài)情緒進行標記,以便研究人員根據這些標記來確定受試者步態(tài)情緒的效價和興奮程度。

研究報告顯示,在測試中,該研究團隊情緒檢測方法的準確率高達80.07%,比Crenn et al.算法提高了13.85%,比不考慮情緒特征的“vanilla” LSTMs提高了24.6%。

555.jpg

但這些數據并不代表該機器學習方法的檢測是萬無一失的,因為它的準確率在很大程度上取決于3D人體姿態(tài)估計和步態(tài)提取的精確度。

盡管該方法的準確率還存在一定的限制,但研究團隊依然相信,他們的機器學習方法能為涉及其他活動,以及其他情緒識別算法的研究提供了可靠的技術基礎。

同時,研究人員還表示,他們研究的方法也是第一個利用最先進的3D人體姿態(tài)估計技術,為步行視頻中的情緒識別提供實時管道的方法。

在未來,研究人員也將繼續(xù)收集更多的數據集,進一步解決目前該機器學習方法所受到的限制。

結語:將為情緒識別研究提供技術支持

查珀爾希爾大學和馬里蘭大學的研究人員研發(fā)的這種機器學習方法,在情緒識別的準確率上得到了進一步地提高。同時,這也是目前學術界中,率先嘗試利用最先進的3D人體姿態(tài)估計技術,來識別步行視頻中的目標情緒的方法。

雖然這一方法的準確率還受到3D人體姿態(tài)估計和步態(tài)提取精確度的限制,但研究人員也將不斷解決它的受限難題,進一步提高情緒識別的準確率。

在未來,這一技術的發(fā)展將為人們情緒識別等研究提供可靠的技術支持,也將為人們的娛樂、安全和人機交互等方面帶來更多便利。