打開(kāi)手機(jī)掃描二維碼
即可在手機(jī)端查看
人工智能在醫(yī)療、通信、農(nóng)業(yè)、社會(huì)治安、交通領(lǐng)域、服務(wù)行業(yè)、金融行業(yè)、大數(shù)據(jù)處理領(lǐng)域飛速發(fā)展的同時(shí),也對(duì)人類的隱私、安全、公平、潛在風(fēng)險(xiǎn)帶來(lái)了根本性的挑戰(zhàn)。雖然不同國(guó)家、政府間組織、科研和產(chǎn)業(yè)界已經(jīng)發(fā)布了不少關(guān)于人工智能發(fā)展、倫理與治理原則,但這些原則并沒(méi)有形成統(tǒng)一觀念,人工智能發(fā)展亟待達(dá)成全球共識(shí)。
01
人工智能目前在醫(yī)療領(lǐng)域的應(yīng)用
整個(gè)醫(yī)療領(lǐng)域復(fù)雜程度高,涉及知識(shí)面廣,人工智能可在多個(gè)環(huán)節(jié)發(fā)揮作用。比如:醫(yī)學(xué)影像識(shí)別、生物技術(shù)、輔助診斷、藥物研發(fā)、營(yíng)養(yǎng)學(xué)等領(lǐng)域,目前應(yīng)用最為廣泛的當(dāng)屬醫(yī)學(xué)影像識(shí)別,在肺結(jié)節(jié)、乳腺癌、冠脈斑塊、皮膚癌、眼底病和病理等領(lǐng)域取得了諸多成果。隨著人工智能和機(jī)器學(xué)習(xí)(Artificial Intelligence-AI / Machine Learnin , AI/ML)驅(qū)動(dòng)的新醫(yī)療技術(shù)的出現(xiàn),一場(chǎng)關(guān)于人工智能的底層邏輯是否必須是可理解的爭(zhēng)論還遠(yuǎn)未達(dá)成共識(shí)。
目前,可信任人工智能仍然是AI應(yīng)用的前提條件之一
走向可信人工智能的關(guān)鍵步驟是開(kāi)發(fā)可解釋的人工智能。
歐洲委員會(huì)人工智能高級(jí)專家組對(duì)可信的人工智能進(jìn)行了定義??尚诺娜斯ぶ悄軕?yīng)該滿足三個(gè)必要條件:人工智能系統(tǒng)應(yīng)該遵守所有適用的法律法規(guī)(合法性),堅(jiān)持道德原則和價(jià)值觀(道德性),安全可靠(穩(wěn)健性)。
我國(guó)《新一代人工智能倫理規(guī)范》第一條即開(kāi)宗明義:本規(guī)范旨在將倫理道德融入人工智能全生命周期,促進(jìn)公平、公正、和諧、安全,避免偏見(jiàn)、歧視、隱私和信息泄露等問(wèn)題。該倫理規(guī)范明確提出,人工智能各類活動(dòng)應(yīng)遵循增進(jìn)人類福祉、促進(jìn)公平公正、保護(hù)隱私安全、確保可控可信、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)等六項(xiàng)基本倫理規(guī)范。
02
可解釋人工智能的概念
人工智能的可解釋性,亦即解釋人工智能如何在大數(shù)據(jù)的基礎(chǔ)上進(jìn)行算法決策,深入了解人工智能模型如何以及為什么產(chǎn)生預(yù)測(cè),同時(shí)保持高預(yù)測(cè)性能水平。然而,在AI領(lǐng)域,雖然以深度學(xué)習(xí)為代表的人工智能技術(shù)已取得了令人矚目的成就,但如何確保以非技術(shù)性的方式向最終用戶和其他利益相關(guān)方解釋算法決策以及任何驅(qū)動(dòng)這些決策的數(shù)據(jù),仍是一個(gè)無(wú)法得到解決的難題。人們也越來(lái)越認(rèn)識(shí)到這些黑盒機(jī)器學(xué)習(xí)方法的局限性。
目前在這一領(lǐng)域的主要懸而未決的問(wèn)題包括:對(duì)于可解釋性的含義仍然缺乏共識(shí)、沒(méi)有明確的指導(dǎo)如何選擇可解釋的人工智能方法、以及缺乏標(biāo)準(zhǔn)化的評(píng)價(jià)方法。人機(jī)并行將會(huì)是未來(lái)人工智能發(fā)展的長(zhǎng)期狀態(tài),當(dāng)人們認(rèn)識(shí)到目前不能完全依賴人工智能進(jìn)行自動(dòng)決策,而只能將其作為輔助系統(tǒng)時(shí),模型的透明程度、可理解程度就變得十分關(guān)鍵。人工智能的可解釋性是建立人類信任基礎(chǔ)的重要前提,只有基于可信任的智能系統(tǒng),才能將人工智能與人類智能有機(jī)結(jié)合,充分發(fā)揮人工智能的潛力與產(chǎn)能優(yōu)勢(shì),形成優(yōu)勢(shì)互補(bǔ)的良性閉環(huán)。
03
人工智能進(jìn)入醫(yī)療領(lǐng)域的限制因素及爭(zhēng)論
“黑箱”問(wèn)題是人工智能和人工智能技術(shù)難以進(jìn)入臨床實(shí)踐的基本原因。
首先,依賴邏輯不透明的技術(shù)設(shè)備違反當(dāng)前的醫(yī)學(xué)倫理。“黑箱”醫(yī)學(xué)不能讓臨床醫(yī)生審查訓(xùn)練標(biāo)簽或數(shù)據(jù)的質(zhì)量,這與循證醫(yī)學(xué)所遵循的規(guī)則相悖。如果患者無(wú)法質(zhì)疑人工智能系統(tǒng),他們的自主權(quán)和知情同意權(quán)就無(wú)法得到保證。
其次,算法偏差也可能造成違反“增進(jìn)人類福祉、促進(jìn)公平公正”的原則。例如,一種旨在根據(jù)醫(yī)療成本對(duì)疾病水平進(jìn)行分類的人工智能算法被發(fā)現(xiàn)對(duì)弱勢(shì)群體患者有偏見(jiàn)。而且人工智能是基于過(guò)去數(shù)據(jù)學(xué)習(xí)的算法,可能會(huì)使這種結(jié)構(gòu)性不平等永久化,各國(guó)監(jiān)管機(jī)構(gòu)已經(jīng)注意到了這些擔(dān)憂。黑匣子正在阻礙人工智能的采用,因?yàn)楸O(jiān)管機(jī)構(gòu)不愿意批準(zhǔn)任何缺乏臨床聯(lián)系的診斷方法。最后,醫(yī)患關(guān)系建立在溝通和信任的基礎(chǔ)上。沒(méi)有醫(yī)學(xué)上可解釋的人工智能,醫(yī)生將很難與患者交流,這將導(dǎo)致患者信心和滿意度的損失。
人類理性的發(fā)展歷程表明,如果一個(gè)判斷或決策是可以被解釋的,人們將更容易了解其優(yōu)點(diǎn)與不足,更容易評(píng)估其風(fēng)險(xiǎn),知道其在多大程度上、在怎樣的場(chǎng)合中可以被信賴,以及可以從哪些方面對(duì)其進(jìn)行不斷改善,以盡量增進(jìn)共識(shí)、減少風(fēng)險(xiǎn),推動(dòng)相應(yīng)領(lǐng)域的不斷發(fā)展。這樣的思維范式是當(dāng)前最成熟、最具共識(shí)、最可信賴的思維模式。人工智能時(shí)代這種思維方式可能存在挑戰(zhàn)。當(dāng)“知”和“行”不同步,即人腦已經(jīng)跟不上算法進(jìn)步的情況發(fā)生時(shí),知行合一該如何應(yīng)對(duì)?
人工智能應(yīng)用于醫(yī)療領(lǐng)域是否必須可解釋,目前還存在很大的爭(zhēng)議。支持者基于“可解釋人工智能”的意義認(rèn)為“可解釋性應(yīng)該是醫(yī)學(xué)中人工智能模型的一個(gè)要求,并且應(yīng)該從一開(kāi)始就內(nèi)置”。
但反對(duì)意見(jiàn)也很值得重視。人類本身至今也未能形成一致的“正確”判斷標(biāo)準(zhǔn),如何期待程序設(shè)計(jì)者能夠?yàn)槿斯ぶ悄芮度胍惶拙邆淦帐纼r(jià)值的判斷標(biāo)準(zhǔn)?現(xiàn)代社會(huì)中價(jià)值觀念之間的沖突,道德規(guī)范屬于社會(huì)領(lǐng)域的價(jià)值判斷,科學(xué)無(wú)法解決價(jià)值判斷問(wèn)題,溝通協(xié)調(diào)與坦然面對(duì)AI領(lǐng)域的現(xiàn)狀才是理智成熟的解決方式。
拋開(kāi)哲學(xué)和社會(huì)學(xué)領(lǐng)域的問(wèn)題,AI在醫(yī)療領(lǐng)域的現(xiàn)實(shí)性問(wèn)題,也需要特別關(guān)注。比如醫(yī)學(xué)成像領(lǐng)域,“臨床醫(yī)生不知道該影像學(xué)模型是否恰當(dāng)?shù)卮_定了哪些區(qū)域在決定中很重要,臟器邊界或血管的形狀是否是決定因素,或者該模型是否依賴于與人類不相關(guān)的特征,例如特定的像素值或紋理,可能與圖像采集過(guò)程有關(guān),而不是潛在疾病”,在缺乏此類信息的情況下,人類傾向于假設(shè)人工智能正在研究人類臨床醫(yī)生會(huì)發(fā)現(xiàn)的重要特征。這種認(rèn)知偏差會(huì)使醫(yī)生對(duì)機(jī)器學(xué)習(xí)算法可能犯的錯(cuò)誤視而不見(jiàn)。
研究人員還發(fā)現(xiàn)了目前流行的可解釋性方法的缺陷,如(Gradient-weighted Class Activation Mapping ,Grad-CAM)、(Local Interpretable Model-agnostic Explanations,LIME)和Shapley Values。其中一些方法通過(guò)改變輸入的數(shù)據(jù)點(diǎn),直到算法做出不同的預(yù)測(cè),然后假設(shè)這些數(shù)據(jù)點(diǎn)對(duì)原來(lái)做的預(yù)測(cè)來(lái)說(shuō)一定是最重要的。但這些方法的問(wèn)題是它們可能會(huì)識(shí)別出對(duì)決策很重要的特征,但它們不能準(zhǔn)確告訴醫(yī)生為什么算法認(rèn)為這些特征很重要。如果這個(gè)特征讓醫(yī)生覺(jué)得違反直覺(jué),醫(yī)生該怎么做?斷定算法是錯(cuò)誤的,還是斷定它發(fā)現(xiàn)了以前醫(yī)學(xué)未知的臨床重要線索?任何一個(gè)都有可能。更糟糕的是,不同的最新解釋方法在對(duì)算法結(jié)論的解釋上經(jīng)常存在分歧。在現(xiàn)實(shí)世界中,大多數(shù)使用算法的人都無(wú)法解決這些差異,而且通常,人們只是簡(jiǎn)單地選擇了最符合他們現(xiàn)有想法的解釋。
一項(xiàng)研究顯示,醫(yī)學(xué)成像中使用的大多數(shù)深度學(xué)習(xí)算法都沒(méi)有受到嚴(yán)格的雙盲隨機(jī)對(duì)照試驗(yàn),所以AI企業(yè)給用戶提供的解釋只是缺乏臨床試驗(yàn)所必須步驟的掩飾而已。
因此,有研究者建議可解釋AI的最終用戶,包括臨床醫(yī)生、立法者和監(jiān)管機(jī)構(gòu),要意識(shí)到當(dāng)前存在的可解釋AI的局限性。如果希望確保人工智能系統(tǒng)能夠安全可靠地運(yùn)行,那么重點(diǎn)應(yīng)該放在嚴(yán)格和徹底的驗(yàn)證程序上。他們認(rèn)為醫(yī)生不應(yīng)該專注于解釋,而應(yīng)該關(guān)注AI的作用效果,以及其是否經(jīng)過(guò)了嚴(yán)格、科學(xué)的測(cè)試,正如臨床試驗(yàn)所做的一樣。
04
可解釋未來(lái)人工智能
在醫(yī)療領(lǐng)域應(yīng)用的展望
可解釋人工智能領(lǐng)域的目標(biāo)是深入了解人工智能模型如何以及為什么產(chǎn)生預(yù)測(cè),同時(shí)保持高預(yù)測(cè)性能水平。目前,人工智能發(fā)展迅猛,在其廣泛應(yīng)用于人類生活之前,其參與、輔助人類決策還是替代人類決策,會(huì)否產(chǎn)生災(zāi)難性的后果,了解人工智能的內(nèi)在邏輯,開(kāi)發(fā)可解釋的人工智能是可信人工智能的一個(gè)可行步驟。雖然可解釋的人工智能領(lǐng)域在醫(yī)療保健方面有著光明的前景,但它還沒(méi)有完全發(fā)展起來(lái)。在“什么是合適的解釋”方面,以及如何評(píng)估“解釋”質(zhì)量方面還沒(méi)有達(dá)成人類共識(shí)。
此外,可解釋的人工智能方法的價(jià)值還有待于在實(shí)踐中得到證明。目前還沒(méi)有如何在可解釋的人工智能方法中選擇的明確的指導(dǎo)方法,以及缺乏標(biāo)準(zhǔn)化的評(píng)估方法。
在醫(yī)療保健領(lǐng)域創(chuàng)造值得信賴的人工智能,可以從以下幾個(gè)方面入手:
提供建模數(shù)據(jù)的質(zhì)量報(bào)告。模型是基于既往數(shù)據(jù)的,由于現(xiàn)實(shí)世界的數(shù)據(jù)不是為研究目的收集的,它們可能包含偏見(jiàn)、錯(cuò)誤或不完整。因此,理解數(shù)據(jù)質(zhì)量和數(shù)據(jù)是如何收集的至少和可解釋性一樣重要,因?yàn)樗试S理解最終模型的局限性。
進(jìn)行廣泛的(外部)驗(yàn)證。對(duì)模型的魯棒性或可推廣性,可以使用外部驗(yàn)證來(lái)解決。外部驗(yàn)證是臨床風(fēng)險(xiǎn)預(yù)測(cè)模型的一個(gè)重要領(lǐng)域,這有賴于有關(guān)的國(guó)際標(biāo)準(zhǔn)、國(guó)際法規(guī),采用共同的數(shù)據(jù)通用結(jié)構(gòu),允許按照公認(rèn)的最佳實(shí)踐,以透明的方式開(kāi)發(fā)和外部驗(yàn)證預(yù)測(cè)模型。這也確保了結(jié)果的可重復(fù)性。
建立有效的監(jiān)管機(jī)制。從長(zhǎng)遠(yuǎn)來(lái)看,這是一種建立信任的有效方式。第一種方法是要求人工智能系統(tǒng)滿足預(yù)先定義的要求(規(guī)范最終產(chǎn)品)。另一種方法是通過(guò)引入應(yīng)該遵循的標(biāo)準(zhǔn)開(kāi)發(fā)指南來(lái)控制開(kāi)發(fā)過(guò)程。
總之,可解釋性的必要性在于,它背后的理論是以人類為中心,反應(yīng)的是我們?cè)撊绾瓮ㄟ^(guò)解釋模型達(dá)到人類對(duì)模型的信任,從而創(chuàng)造更加安全可靠的應(yīng)用,進(jìn)而推動(dòng)整個(gè)AI產(chǎn)業(yè)的進(jìn)步,造福人類。
Copyright ? 2022 上??评讜?huì)展服務(wù)有限公司 旗下「智慧醫(yī)療網(wǎng)」版權(quán)所有 ICP備案號(hào):滬ICP備17004559號(hào)-5