不出聲也能命令Siri!清華校友開發(fā)「無聲語言識別」項鏈
本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。
這,或許是現(xiàn)在跟Siri交流最潮的方式了——
只需要動動嘴皮子,就能讓它under你的control。
沒錯,就是不需要出任何聲音的那種。
這就是來自康奈爾華人團隊的最新研究成果 SpeeChin,無聲語音識別。
像這樣:
在沒有聲音的情況下,你能猜出來他在說什么嗎(文末揭曉答案)?
但在SpeeChin的加持下,現(xiàn)在的Siri、Alexa等就已經(jīng)可以識別,而且還支持普通話和英文!
是有種“此時無聲勝似有聲”的感覺了。
不說話,怎么控制語音助手?
康奈爾團隊研發(fā)的SpeeChin,其實是一條神奇的項鏈。
戴上這條項鏈,就能開啟無聲語音控制的大門了。
例如對著電腦默念一句“Next”,音樂就會自動切換成下一首歌:
或許你會說一個單詞過于簡單了,別急,現(xiàn)在就來加大難度:
“Switch to Taylor Swift.”
可見,SpeeChin即便是面對一句完整的話術,也可以做到精準識別。
而這條“無聲識別”項鏈的關鍵,就在于安裝在項鏈下方的紅外攝像機。
它可以捕捉到人物頸部和面部皮膚的變形圖像,從而進行分析識別工作,確定從“嘴皮子”傳達的是什么命令。
而且這條項鏈不僅能無聲識別英文,連中文 (普通話)也能夠hold住。
在最初的實驗中,有20人參與到了測試中,其中10人講英文,另外10人說普通話。
研究人員讓測試者分別用英文和中文發(fā)出數(shù)十條指令,包括數(shù)字、互動指令、語音輔助指令、標點指令和導航指令。
最后的實驗結果,“無聲識別”的準確率分別達到了90.5%和91.6%。
來自康奈爾大學的華人團隊
這項研究來自康奈爾大學,一作是Ruidong Zhang。
其中,Cheng Zhang是這項研究的通訊作者。
他是康奈爾大學信息科學系的助理教授,他的研究聚焦在如何獲取人體及其周圍的信息,以應對各種應用領域中的現(xiàn)實世界挑戰(zhàn),如交互、健康感知和活動識別。
研究的一作Ruidong Zhang,他是Cheng Zhang教授的一名博士生,本科畢業(yè)于清華大學。
他的研究興趣在于人機交互和普適計算(ubiquitous computing),特別是建立新型的可穿戴設備,用來促進互動體驗并加深我們對人類行為的理解。
至于為什么他們要做SpeeChin這項工作,據(jù)Ruidong Zhang解釋:
主要是考慮到在某些特定場合中,人們可能不適合發(fā)出聲音;還考慮到一些不能說話的人群。
最后,來揭曉一下開頭GIF的答案:
你猜對了嗎?