醫(yī)療自診依賴 AI 聊天機(jī)器人存風(fēng)險(xiǎn),專家呼吁謹(jǐn)慎使用
5 月 6 日消息,在醫(yī)療資源緊張、等待時(shí)間長(zhǎng)、成本不斷攀升的背景下,越來越多的人開始借助像 ChatGPT 這樣的人工智能聊天機(jī)器人來進(jìn)行醫(yī)療自診。據(jù)一項(xiàng)最新調(diào)查顯示,大約六分之一的美國成年人每月至少會(huì)使用一次聊天機(jī)器人獲取健康建議。
然而,過度信任聊天機(jī)器人的輸出結(jié)果可能會(huì)帶來風(fēng)險(xiǎn)。最近一項(xiàng)由牛津大學(xué)主導(dǎo)的研究指出,人們?cè)谙蛄奶鞕C(jī)器人提供信息時(shí),往往難以提供能夠獲得最佳健康建議的關(guān)鍵信息。
“研究揭示了雙向溝通的障礙。”牛津互聯(lián)網(wǎng)研究所研究生項(xiàng)目主任、該研究的共同作者亞當(dāng)?馬赫迪(Adam Mahdi)在接受 TechCrunch 采訪時(shí)表示,“使用聊天機(jī)器人的人并沒有比依靠傳統(tǒng)方法(如在線搜索或自己的判斷)的人做出更好的決策。”
據(jù)IT之家了解,為了開展這項(xiàng)研究,研究人員招募了大約 1300 名英國參與者,并向他們提供了由一組醫(yī)生編寫的醫(yī)療場(chǎng)景。參與者需要在這些場(chǎng)景中識(shí)別潛在的健康狀況,并使用聊天機(jī)器人以及他們自己的方法來確定可能的行動(dòng)方案(例如,去看醫(yī)生或去醫(yī)院)。
在研究中,參與者使用了為 ChatGPT 提供支持的默認(rèn)人工智能模型 GPT-4o,以及 Cohere 的 Command R + 和 Meta 的 Llama 3。研究結(jié)果顯示,聊天機(jī)器人不僅使參與者更難識(shí)別相關(guān)的健康狀況,還讓他們更有可能低估自己所識(shí)別出的健康狀況的嚴(yán)重程度。
馬赫迪指出,參與者在向聊天機(jī)器人提問時(shí)常常遺漏關(guān)鍵細(xì)節(jié),或者收到難以解讀的答案。“他們從聊天機(jī)器人那里得到的回答常常是好壞參半的建議。”他補(bǔ)充道,“目前對(duì)聊天機(jī)器人的評(píng)估方法并沒有反映出與人類用戶互動(dòng)的復(fù)雜性。”
與此同時(shí),科技公司正不斷推動(dòng)將人工智能作為改善健康狀況的一種手段。據(jù)報(bào)道,蘋果正在開發(fā)一款能夠提供與運(yùn)動(dòng)、飲食和睡眠相關(guān)建議的人工智能工具;亞馬遜正在探索一種基于人工智能的方法,用于分析醫(yī)療數(shù)據(jù)庫中的“健康社會(huì)決定因素”;微軟則在協(xié)助構(gòu)建人工智能,以對(duì)患者發(fā)送給護(hù)理提供者的消息進(jìn)行初步分類。
但無論是專業(yè)人士還是患者,對(duì)于人工智能是否已準(zhǔn)備好用于高風(fēng)險(xiǎn)健康應(yīng)用都存在分歧。美國醫(yī)學(xué)協(xié)會(huì)建議醫(yī)生不要使用 ChatGPT 等聊天機(jī)器人協(xié)助臨床決策,而包括 OpenAI 在內(nèi)的主要人工智能公司也警告不要根據(jù)聊天機(jī)器人的輸出結(jié)果進(jìn)行診斷。
“我們建議在做出醫(yī)療決策時(shí)依賴可信的信息來源。”馬赫迪表示,“就像新藥物的臨床試驗(yàn)一樣,在部署聊天機(jī)器人系統(tǒng)之前,應(yīng)該先在現(xiàn)實(shí)世界中進(jìn)行測(cè)試。”