生存還是死亡?當(dāng)AI成為生死判官,「心理數(shù)字孿生」為失語(yǔ)患者做出臨終抉擇
隨著慢性病的高發(fā)和醫(yī)療技術(shù)的發(fā)展,死亡變得緩慢,臨終也成為當(dāng)代個(gè)人生命歷程的一個(gè)重要階段。
對(duì)很多人來(lái)說(shuō),死亡不再是突發(fā)的、沒(méi)有征兆的離世,而是一個(gè)漫長(zhǎng)的過(guò)程。
「插不插管」,怎樣才是更好的選擇,怎么做才能讓生命有尊嚴(yán)地謝幕?
圖片
《MIT科技評(píng)論》近日發(fā)布了一篇文章,對(duì)「AI介入插管決策」這一話題進(jìn)行了深入探討。
倫理學(xué)家提出了一種乍一聽(tīng)非常瘋狂的想法——利用AI打造「心理數(shù)字孿生」,幫助醫(yī)生和失去語(yǔ)言功能的患者的家屬做出決定。
圖片
AI的邊界在哪里,難道連生死這種「人生大事」也要被算法接管了嗎?
把決定權(quán)交給AI
幾個(gè)月前,50多歲的Sophie經(jīng)歷了一次出血性中風(fēng)。她接受了腦部手術(shù),但心臟卻停止了跳動(dòng)。
Sophie的遭遇給她造成了嚴(yán)重的腦損傷。她反應(yīng)遲鈍,手指無(wú)法捏緊,被要求睜開(kāi)眼睛時(shí)她也無(wú)法睜開(kāi),皮膚被捏住時(shí)她也不會(huì)退縮。
她無(wú)法主動(dòng)呼吸,只能在脖子上切開(kāi)一根氣管后插管來(lái)呼吸,還需要一根飼管將營(yíng)養(yǎng)直接輸送到她的胃里。接下來(lái),她的醫(yī)護(hù)該何去何從?
參與Sophie治療的貝勒醫(yī)學(xué)院內(nèi)科醫(yī)生Holland Kaplan回憶說(shuō),在這種情況下,這個(gè)棘手的問(wèn)題通常會(huì)留給Sophie的家人來(lái)解決。
貝勒醫(yī)學(xué)院,被認(rèn)為是全美最杰出的醫(yī)學(xué)院之一
但家人無(wú)法達(dá)成一致。Sophie的女兒堅(jiān)決認(rèn)為,她的母親希望停止治療,讓她安詳?shù)仉x開(kāi)人世。另一位家庭成員則堅(jiān)決反對(duì),并堅(jiān)持認(rèn)為索菲是個(gè)「斗士」。
這種情況讓包括Sophie的醫(yī)生在內(nèi)的所有相關(guān)人員都感到痛心。
美國(guó)國(guó)立衛(wèi)生研究院的生物倫理學(xué)家David Wendler說(shuō),生命末期的「生死抉擇」,可能會(huì)讓幫助臨終患者做出決定的人感到非常不安。
David Wendler
Wendler和他的同事們一直在研究一種可以讓事情變得更簡(jiǎn)單的想法:一種基于人工智能的工具,可以幫助患者家屬預(yù)測(cè)病人自己在任何特定情況下會(huì)想要什么。
Wendler與其他來(lái)自牛津、新加坡國(guó)立大學(xué)、耶魯?shù)仁澜缑5难芯空吆现南嚓P(guān)論文發(fā)表在了24年第7期的《美國(guó)生物倫理學(xué)雜志》上,論文題為「醫(yī)療保健中替代判斷的個(gè)性化患者偏好預(yù)測(cè)器:技術(shù)上可行,倫理上可取」。
圖片
論文地址:https://www.tandfonline.com/doi/full/10.1080/15265161.2023.2296402
這個(gè)工具還沒(méi)有制造出來(lái)。但Wendler計(jì)劃用病人自己的醫(yī)療數(shù)據(jù)、個(gè)人信息和社交媒體帖子來(lái)訓(xùn)練它。
他希望該工具不僅能更準(zhǔn)確地計(jì)算出病人的意愿,還能減輕家屬在艱難決策中的壓力和情感負(fù)擔(dān)。
Wendler與牛津大學(xué)的生物倫理學(xué)家Brian Earp及其同事一起,希望在獲得資金后立即開(kāi)始構(gòu)建這一工具,預(yù)計(jì)在未來(lái)幾個(gè)月內(nèi)成行。
圖片
Brian Earp
但要推出這一工具并非易事。
批評(píng)者們不禁要問(wèn),這樣的工具如何才能合乎道德地在一個(gè)人的數(shù)據(jù)上進(jìn)行訓(xùn)練,生死攸關(guān)的決定是否應(yīng)該交由人工智能。
生存還是死亡
在醫(yī)療環(huán)境中,約有34%的人由于各種原因被認(rèn)為無(wú)法對(duì)自己的護(hù)理做出決定。例如,他們可能失去知覺(jué),或者無(wú)法推理或交流。
圖片
這一數(shù)字在老年人中更高,對(duì)美國(guó)60歲以上人群的研究發(fā)現(xiàn),70%面臨重要護(hù)理決策的人缺乏自我決策的能力。
Wendler說(shuō),「這是很多非常重要的決定,基本上決定了一個(gè)人在不久的將來(lái)是生是死。」
對(duì)衰竭的心臟進(jìn)行胸外按壓可能會(huì)延長(zhǎng)人的生命,但這種治療方法可能會(huì)導(dǎo)致胸骨和肋骨斷裂,而且到病人醒過(guò)來(lái)的時(shí)候,可能已經(jīng)出現(xiàn)了嚴(yán)重的腦損傷。
用機(jī)器維持心臟和肺部的功能可能會(huì)維持其他器官的含氧血液供應(yīng),但并不能保證康復(fù),而且患者在此期間可能會(huì)感染多種疾病。
身患絕癥的人可能希望繼續(xù)嘗試醫(yī)院提供的藥物和治療程序,這樣可以多活幾周或幾個(gè)月。但另一些人可能希望放棄這些干預(yù)措施,在家里過(guò)得更舒適。
在美國(guó),只有大約三分之一的成年人提前交待好了「死亡方式」,他們填寫(xiě)了預(yù)先指示,一種明確規(guī)定他們可能希望得到的臨終關(guān)懷的法律文件。
圖片
論文地址:https://pubmed.ncbi.nlm.nih.gov/28679811/
Wendler估計(jì),超過(guò)90%的臨終決定最終是由病人以外的其他人做出的。
代理人的作用是根據(jù)病人希望如何治療的信念做出決定。但人們通常并不擅長(zhǎng)做出此類(lèi)預(yù)測(cè)。研究表明,代治者準(zhǔn)確預(yù)測(cè)病人臨終決定的比例約為68%。
圖片
Wendler補(bǔ)充說(shuō),這些決定本身也會(huì)讓人非常痛苦。
一些代做決定者會(huì)因?yàn)橹С至俗约旱挠H人而感到滿足,而另一些則會(huì)在情感負(fù)擔(dān)中掙扎,并在之后的幾個(gè)月甚至幾年里感到內(nèi)疚。
圖片
論文地址:https://www.acpjournals.org/doi/10.7326/0003-4819-154-5-201103010-00008
有些人擔(dān)心自己過(guò)早地結(jié)束了親人的生命,還有人擔(dān)心他們不必要地延長(zhǎng)了親人的痛苦。
「這對(duì)很多人來(lái)說(shuō)都很糟糕,人們會(huì)說(shuō)這是他們做過(guò)的最糟糕的事情之一」。
Wendler一直在研究如何幫助患者家屬做出此類(lèi)決定。
十多年前,他提出了開(kāi)發(fā)一種工具的想法,這種工具可以根據(jù)年齡、性別和保險(xiǎn)狀況等特征預(yù)測(cè)病人的偏好。
該工具的基礎(chǔ)是用普通人群調(diào)查結(jié)果訓(xùn)練出來(lái)的算法,看似粗糙,但這些特征似乎確實(shí)影響著人們對(duì)醫(yī)療服務(wù)的感受。例如,青少年比90歲的老人更有可能選擇積極治療。
研究表明,基于平均值的預(yù)測(cè)可能比家庭成員的猜測(cè)更準(zhǔn)確。
2007年,Wendler和他的同事們根據(jù)少量數(shù)據(jù)建立了一個(gè)工具的初步版本。
Wendler說(shuō),這個(gè)簡(jiǎn)單的工具在預(yù)測(cè)人們需要什么樣的護(hù)理方面「至少和近親代理一樣好」。
現(xiàn)在,Wendler、 Earp和他們的同事正在研究一個(gè)新的想法。
研究人員計(jì)劃建立的新工具將不再基于粗略的特征,而是個(gè)性化的。
該團(tuán)隊(duì)建議使用人工智能和機(jī)器學(xué)習(xí),根據(jù)病史等個(gè)人數(shù)據(jù),以及電子郵件、個(gè)人信息、網(wǎng)頁(yè)瀏覽歷史、社交媒體帖子,甚至是 Facebook 的「點(diǎn)贊」,來(lái)預(yù)測(cè)病人的治療偏好。
其結(jié)果將是一個(gè)人的「心理數(shù)字孿生」——一個(gè)醫(yī)生和家庭成員可以參考的工具,以指導(dǎo)患者的醫(yī)療護(hù)理。
目前還不清楚這在實(shí)踐中會(huì)是什么樣子,但該團(tuán)隊(duì)希望在完善該工具之前對(duì)其進(jìn)行構(gòu)建和測(cè)試。
研究人員稱他們的工具為個(gè)性化患者偏好預(yù)測(cè)器(personalized patient preference predictor),簡(jiǎn)稱為P4。
Wendler說(shuō),從理論上講,如果它能像他們希望的那樣工作,那么它可能會(huì)比前一版本的工具更準(zhǔn)確,而且比人類(lèi)代理更準(zhǔn)確。
Earp說(shuō),它可能比預(yù)先指示更能反映病人當(dāng)前的想法,而預(yù)先指示可能是在十年前簽署的。
AI能做出更好的選擇嗎
貝勒醫(yī)學(xué)院的醫(yī)學(xué)倫理學(xué)家Jennifer Blumenthal-Barby說(shuō),P4 這樣的工具還可以幫助減輕代理者在為家人做出如此重大的生死決定時(shí)所承受的精神負(fù)擔(dān),因?yàn)檫@種決定有時(shí)會(huì)讓人出現(xiàn)創(chuàng)傷后應(yīng)激障礙的癥狀。
Kaplan說(shuō),有些代理人會(huì)出現(xiàn)「決策癱瘓」,他們可能會(huì)選擇使用該工具來(lái)幫助引導(dǎo)他們完成決策過(guò)程。
在這種情況下,P4 可以幫助減輕代理者的一些負(fù)擔(dān),而不一定要給他們一個(gè)非黑即白的答案。
舉例來(lái)說(shuō),它可能會(huì)建議某人「有可能」或「不太可能」對(duì)某項(xiàng)治療產(chǎn)生某種感覺(jué),或者給出一個(gè)百分比,表明答案正確或錯(cuò)誤的可能性有多大。
Kaplan可以想象,像P4這樣的工具在Sophie這樣的情況下會(huì)很有幫助。因?yàn)樵谶@種情況下,不同的家庭成員可能會(huì)對(duì)一個(gè)人的醫(yī)療護(hù)理有不同的意見(jiàn)。向這些家庭成員提供該工具,能夠幫助他們共同做出決定。
它還可以幫助指導(dǎo)那些沒(méi)有代理人的人做出護(hù)理決定。
Kaplan是休斯頓Ben Taub醫(yī)院的一名內(nèi)科醫(yī)生,該醫(yī)院是一家「安全網(wǎng)」醫(yī)院,無(wú)論病人是否有醫(yī)療保險(xiǎn),都會(huì)接受治療,很多病人都是無(wú)證件者、被監(jiān)禁者和無(wú)家可歸者。
當(dāng)Kaplan見(jiàn)到這些病人時(shí),他們往往已處于水深火熱之中,處于疾病的晚期。他們中的許多人無(wú)法討論自己的護(hù)理問(wèn)題,有些人也沒(méi)有家人可以代表他們說(shuō)話。
Kaplan表示,她可以想象像P4這樣的工具會(huì)在這樣的情況下使用,讓醫(yī)生更深入地了解病人可能想要什么。
例如,在這種情況下,可能很難找到病人的社交媒體資料。但其他信息可能會(huì)被證明是有用的。
Wendler說(shuō),如果某些信息被證明是一個(gè)預(yù)測(cè)因子,他就會(huì)希望它出現(xiàn)在模型中。
「如果人們的頭發(fā)顏色、上小學(xué)的地點(diǎn)或姓氏的第一個(gè)字母被證明可以『預(yù)測(cè)一個(gè)人的愿望』,那么我就想把它們加進(jìn)去。」
Earp和他的同事們已經(jīng)開(kāi)始進(jìn)行調(diào)查,以了解個(gè)人對(duì)使用 P4 的感受。
這項(xiàng)研究仍在進(jìn)行中,但早期的反饋表明,如果沒(méi)有可用的人類(lèi)代理者,人們也愿意嘗試這種模型。
Earp說(shuō)他也有同感。他還說(shuō),如果P4和代理人給出的預(yù)測(cè)不同,「我可能會(huì)聽(tīng)從了解我的人的意見(jiàn),而不是模型」。
它不是人類(lèi)
Earp的感受出賣(mài)了許多人的直覺(jué)——這些重大決定最好由人來(lái)做出。
瑞士洛桑聯(lián)邦理工學(xué)院研究員Georg Starke也表示,「問(wèn)題是,我們希望如何做出臨終決定,以及由誰(shuí)來(lái)做出決定?」
而且,即使一個(gè)人在之前的筆記、信息和社交媒體帖子中明確表達(dá)了自己的意愿,但在身臨其境之前也很難知道自己對(duì)醫(yī)療狀況的感受。
Kaplan曾治療過(guò)一位患有骨質(zhì)疏松癥的80歲老人,他一直堅(jiān)持說(shuō),如果心臟停止跳動(dòng),他希望接受胸外按壓。但當(dāng)這一時(shí)刻到來(lái)時(shí),他的骨頭太薄太脆,無(wú)法承受按壓。
Kaplan記得,這位老人能聽(tīng)得到自己的骨頭「像牙簽一樣」斷裂,胸骨從肋骨上脫落。
「然后我就想,我們?cè)谧鍪裁矗课覀冊(cè)趲椭l(shuí)?會(huì)有人真的想要這樣嗎?」Kaplan說(shuō)道。
還有其他令人擔(dān)憂的問(wèn)題。
首先,根據(jù)一個(gè)人在社交媒體上發(fā)布的信息訓(xùn)練出來(lái)的人工智能最終可能并不完全是一個(gè)「心理數(shù)字孿生」 。
「任何一個(gè)在社交媒體上發(fā)表過(guò)文章的人都知道,我們?cè)谏缃幻襟w上發(fā)布的內(nèi)容往往并不能代表我們的真實(shí)想法、價(jià)值觀或需求。」
而且,人工智能并不穩(wěn)定,即使是微妙地改變給人工智能模型的提示,也會(huì)讓你得到完全不同的回答。想到我們要把如此重要的決定交給如此隨機(jī)的AI,「這太可怕了」。
另一方面,人類(lèi)也是容易犯錯(cuò)的。貝勒醫(yī)學(xué)院的生物倫理學(xué)家Vasiliki Rahimzadeh認(rèn)為,P4 是個(gè)好主意,前提是必須經(jīng)過(guò)嚴(yán)格測(cè)試。
她說(shuō),「我們對(duì)這些技術(shù)的要求不應(yīng)該高于我們對(duì)自己的要求。」
Earp和Wendler也承認(rèn)他們面臨著挑戰(zhàn)。
他們希望自己建立的工具可以捕捉到有用的信息,既能反映一個(gè)人的意愿,又不侵犯隱私;他們希望該工具能成為患者和代理人可以選擇使用的有用指南,而不是就患者的護(hù)理問(wèn)題給出非黑即白的最終答案的默認(rèn)方式。
可即使他們?cè)谶@些方面取得了成功,他們也可能無(wú)法控制這種工具的最終使用方式。
以Sophie的案例為例。如果使用 P4,其預(yù)測(cè)結(jié)果可能只會(huì)進(jìn)一步破壞本已面臨壓力的家庭關(guān)系。
Wendler坦言,「我最擔(dān)心的是誰(shuí)來(lái)控制它。他擔(dān)心醫(yī)院可能會(huì)濫用P4等工具」,他說(shuō),「這中間有各種各樣的經(jīng)濟(jì)因素。」
參考資料:https://www.technologyreview.com/2024/08/01/1095551/end-of-life-decisions-ai-help/