消費者為何不信任栩栩如生的AI
盡管像Amazon Alexa這樣的語音助手興起,但人們對逼真的AI感到不舒服。例如,去年Google推出了Google Assistant的“ Duplex”功能。聽起來不錯的AI可以代表用戶撥打簡單的電話,主要用于預(yù)訂餐廳。
AI聽起來太逼真了。呼叫接收者報告說,Duplex bot感到“蠕動”,因為它與人類幾乎沒有區(qū)別。這是“不可思議的山谷”或當(dāng)類似人的AI模仿一個人時讓人感到陰森恐怖的例子,但似乎并不完全真實。這種現(xiàn)實主義上的鴻溝導(dǎo)致了一種排斥和不信任的感覺。
與客戶建立熱烈可信賴的關(guān)系需要只有高端開發(fā)人員才能提供的特殊聯(lián)系。為了使AI獲得未來消費者的信任并實現(xiàn)更好的業(yè)務(wù)成果,開發(fā)人員需要對不可思議的低谷及其后果有扎實的了解。
考慮使用AI的企業(yè)應(yīng)在采用AI之前就AI如何影響消費者的信任度考慮很多方面。
神秘的內(nèi)部
人工智能的逼真度令人不安,但是這種負面的情緒反應(yīng)并不是什么新鮮事。看著栩栩如生的娃娃,尸體甚至假肢可以觸發(fā)相同的效果。這是因為死氣沉沉但像人類一樣的物體使我們想起了自己的死亡。科幻電影和恐怖電影充分利用了這種現(xiàn)象,使圖像太接近舒適。
逼真的AI也令人不安,因為人們受到了生物學(xué)上的激勵,以避開那些看起來生病,不健康或“虛假”的人。這就是所謂的“避免病原體”,從生物學(xué)上講可以預(yù)防危險的疾病。逼真的AI似乎幾乎是人類,但幾乎人類還不夠。
人們既不信任也不了解AI
人類已經(jīng)進化為控制環(huán)境。結(jié)果,我們不愿將任務(wù)委派給既不被完全理解又不至于故障安全的算法。因此,當(dāng)AI通常無法達到人類標準時,我們就會敏銳地意識到這一點。
例如,Uber的自動駕駛汽車尚未能夠在自動駕駛中安全運行。根據(jù)加州大學(xué)伯克利分校的研究,一種AI住房系統(tǒng)著手向少數(shù)房屋所有者收取更高的住房貸款利率。
即使對于Google Duplex,用戶也懷疑AI是否能夠正確理解其餐廳預(yù)訂的簡單細節(jié)。
人工智能被認為是不可信任的,因為無論成功有多頻繁,即使失敗了幾次,這些情況仍然存在。盡管便利性很吸引人,但消費者在使用該技術(shù)時仍要求可靠性,控制性和舒適性。
諸如Amazon Alexa之類的語音助手為用戶提供了一種快樂的媒體。AI不太逼真,并且很容易理解如何控制技術(shù)。人們只相信自己的理解。但是像大多數(shù)人一樣,栩栩如生的AI并不為人所知。
區(qū)分和理解信任的關(guān)鍵
為了獲得信任,AI開發(fā)人員和企業(yè)必須確保為用戶提供更舒適的AI體驗。最重要的是,這意味著AI應(yīng)該顯得更人性化。
人們希望諸如Google Duplex之類的技術(shù)宣布自己為AI,這將使他們對這項技術(shù)更加滿意。在視覺上,可以創(chuàng)建AI使其看起來可愛而不是解剖上準確。如果AI易于與人類區(qū)分開,則人們更可能采用AI。
盡管機器學(xué)習(xí)算法過于復(fù)雜以至于人類無法理解,但是透明性和可解釋性卻產(chǎn)生了信任。為此,共享有關(guān)AI決策過程的信息可以為機器學(xué)習(xí)算法的“黑匣子”增光添彩。在一項研究中,如果允許人們對算法進行調(diào)整以使其滿意,那么人們將來更可能信任和使用AI。
這表明控制感和熟悉感是促進人們接受逼真的AI的關(guān)鍵。
最后,如果消費者不信任企業(yè)的AI系統(tǒng),請回到老式的方式,并使用人工與客戶進行交流–并尋求虛擬助手等第三方資源的幫助,以確保任務(wù)不會繁重。
為何消費者不信任栩栩如生的AI
為了向人們開放栩栩如生的AI,公司必須避開不可思議的低谷。需要熟悉,教育和視覺上的區(qū)別,以幫助人們在仿人技術(shù)的出現(xiàn)時感到舒適。