醫療人工智能倫理若干問題探討
人工智能在醫療行業領域的應用與實踐帶來了新的倫理問題的挑戰。新的人工智能技術可能對患者產生潛在的風險,這些因素主要來自算法偏見、隱私安全、醫生接受度、責權和技術濫用等,當前醫療領域也面臨著缺乏醫療人工智能倫理規范和審核機制。醫療人工智能未來對整個醫療健康體系勢必產生重大的影響,有助于醫療健康體系的重塑,促進公民的健康民主。期待行業組織或者政府制定醫療人工智能倫理規范。
1.引言
人工智能(Artificial Intelligence,AI)已經在醫療健康領域進行了廣泛性的探索性應用,部分已經形成商業化的使用。人工智能將產生廣泛的影響,顯著地影響醫學實踐,改變患者體驗和醫生的日常生活。與此同時,AI先進的技術也帶來一些列的新的倫理挑戰。醫療倫理自古以來就貫徹整個醫學發展的各個階段,人工智能作為創新性的技術,對醫療健康體系勢必產生重要的影響。本文就醫療人工智能倫理若干問題進行探討。
2.當前醫療人工智能倫理的主要問題
2.1. 算法偏見對患者安全潛在風險因素
涉及患者安全的風險主要表現為 AI 提供的輔助診斷、治療建議以及操作可能誤導醫生進行錯誤的決策,直接或者間接對患者產生不同程度的機體傷害。這種危害從技術上主要來自系統的算法偏見(Algorithmic Bias)與漏洞。算法偏見指的AI系統中產生不公平結果的系統性和可重復性錯誤,偏差可能是由于許多因素造成的,包括但不限于算法本身的設計、數據編程、收集、選擇或用于訓練算法的方式相關的意外或非預期的使用或決策。計算機產生的偏見幾乎無處不在 偏見的原因往往不在準則中,而是在更廣泛的社會過程中。到其結果中的無意識和制度偏差。算法偏見主要分為 “數據驅動的偏見”、 “人為造成的偏見”與“機器自我學習造成的偏見”三種類別。
“數據驅動造成的偏見” 指由于原始訓練數據存在偏見性,導致算法執行時將歧視帶入決策過程。鑒于算法本身不會質疑其所接收到的數據,只是單純地尋找、挖掘數據背后隱含的結構和模式,如果人類輸入給算法的數據一開始就存在某種偏見或喜好,那么算法會獲得的輸出結果也會與人類偏見相同。
例如圖像識別在進行機器學習和建立學習算法的過程中,存在潛在的偏差。訓練圖像往往來源于具體某個合作醫療機構的數據,其圖像標識過程中帶有鮮明的該醫療機構的診斷特色和習慣。
此外,算法概念化的框架本身包含了工作組的主觀假設,這種基于“主觀”上的數據結果成為所謂“客觀”的數據輸入。盡管國際影像廠商設備的圖像質量趨同同質性,但更多的不同廠商影像也存在不同的設備型號、數字化成像質量的程度上的差異,同時模型可能造成或加劇按年齡、性別、種族、地區或其他受保護特征劃分的醫療保健人群不公平現象。這些因素導致應用的范圍存在偏差。
人為造成的偏見是指算法設計者為了獲得某些利益,或者為了表達自己的一些主觀觀點而設計存在歧視性的算法。這里包括了主觀和客觀的偏見,一方面由于人和技術本身問題造成的,另外一方面也有人刻意而為之。斯坦福大學有學者認為,用于醫療保健應用的人工智能開發者的價值觀可能并不總是與臨床醫生的價值觀一致。例如可能會有誘惑,引導系統采取臨床行動,提高質量指標,但不一定是為患者護理。這些算法可能會在被潛在的醫院監管機構審查時,扭曲為公眾評估提供的數據。
而也有人為的偏見是來自醫學的本身特點,尤其在治療方案上有著區域、學派的分歧,治療方案選擇上存在人為的偏見,盡管詢證醫學已經成為主導,但具有主觀色彩的經驗醫學在臨床實踐上仍有效。很多時候,沒有治療唯一的“金標準”,這也就是為什么經常出現等級性質的方案推薦,有著專家共識、臨床指南、臨床規范的不等的標準。此外人為的偏見,也有可能來自系統開發機構工程師倫理知識的匱乏,缺乏行業專業領域知識。
機器自我學習造成的偏見,隨著算法復雜程度的日益提高,通過機器學習過程形成的決策越來越難以被解釋人工智能內部的代碼、算法存在 “黑箱”,導致無法控制和預測算法的結果,而在應用中產生某種不公平傾向。
2.2.患者隱私安全性泄露風險
進入信息化時代后,患者個人健康信息數據(PHI ,Personal Health Information)一直被關注,亦有相應的行業規范和法規政策進行管理。隨著數據搜集、機器學習、人工智能等技術的使用,個人信息泄露的情況頻繁發生。個人隱私保護、個人健康信心重要性日益凸顯。當前對于醫療 AI 應用涉及患者的隱私問題、自我保護策略和可接受性尚還沒有清晰的策略。數據更多的泄露來源是在為 AI 進行訓練的患者數據。其中人體基因組數據的泄露引起潛在的生物危害和商業利益更為突出。有報告顯示,公眾對個人隱私泄露問題的顧慮占到調查人群的59.72% 。
2.3.醫生對醫療 AI的接受性
從技術角度而言,醫生不了解人工智能算法的局限性或范圍,這種不透明的“黑箱”效應從而產生了盲目信仰或懷疑的可能性,不信任的占據多數。由于醫療 AI 當前還處于相對早期的臨床應用階段,無論醫生還是民眾對醫療 AI 的信任程度未達到期望。很多醫療 AI 系統沒有很好的在整合醫療工作流中,其醫療 AI 解決方案并沒有貫穿整個醫療全流程,部分操作反倒增加醫生現有工作負擔,其帶來的價值沒有很好體現。此外,醫生對醫療 AI 新技術的各種顧慮,不自覺地表現出排斥和質疑的心理,某種程度延緩了新技術的迅速推廣實施。對于新技術的接受程度上,具有海外進修培訓經歷的高學歷的中青年醫生對 AI技術應用更持有理性的態度,年輕醫生好奇心居多,同時也有部分老醫生對新技術持有質疑和排斥的心理。此外,在醫療不同場景下的應用,也導致對 AI 的評價與接受度不同,有學者研究在醫學培訓教育上醫生對 AI 的作用認可程度最高。
2.4.醫療責權問題
醫生對 AI 系統臨床應用另一方面的顧慮是誰對醫療 AI 提供的決策最終負責,如果出現錯誤,誰來承擔后果。當前階段,醫療 AI 的最后結果仍需要人工校驗審核,醫生承擔由此對患者診療結局的責任。未來臨床廣泛引入醫療 AI 后如何實現問責,現在仍不明確。
當人工智能應用結果導致臨床糾紛、人類倫理或法律的沖突問題時,是否能夠從技術層面對人工智能技術開發人員或設計部門問責。并在人工智能應用層面建立合理的責任和賠償體系,保障醫療 AI 在臨床發揮其應有的價值,而不至于陷入尷尬困境。
2.5.醫療 AI濫用導致過度醫療與潛在風險
醫療AI在特定領域特別是影像識別上對已經高于人類平均水平,而且就有較高的效率,作為工具在臨床上也有濫用的風險,從而導致過度醫療。根據某城市三級醫院某院網站公開報道,自醫院引入肺結節影像識別 AI 技術后,肺結節篩查人次三年中增長73%,篩查直接帶來的收益增長 81%,加上手術治療,醫院總收益增長100%。隨著效率的提升,醫院業務水平得到極大的提高。從公開的數字看,AI 給醫院帶來豐富的收益回報。但從所在地區的衛生統計年鑒來看,所在地區的非傳染性疾病的疾病譜分布情況未發生明顯改變,而該院肺部結節患者和手術量短期大幅增加可以質疑利用 AI工具進行了過度醫療。這種過度醫療無疑對患者身體上和經濟上都帶來傷害。在NLST(National Lung Screening Trial )研究中,CT篩查組中96.4%的陽性結節為良性,我國農村肺癌早診早治項目的假陽性率也較高。過高的假陽性可能導致過度診斷、過度治療、醫療資源的浪費及增加受檢者焦慮心理。
2019 年7 月17 日美國神經網絡公司Neuralink在舊金山舉行新聞發布會,宣布腦機接口系統獲得新突破。此公司研發“像縫紉機一樣”的機器人,這個機器人可以將超纖細的線植入大腦深處。目的是將人工智能直接植入人類大腦皮層以提高人類智能水平(即腦機接口技術),Neuralink的初衷在于幫助人類解決腦部疾病。目前研究人員已經在猴子身上進行實驗,讓猴子能用大腦來控制電腦。根據Neuralink官方公布的實驗信息,他們把老鼠頭部連接到USB-C端口,通過電線將老鼠的想法傳到計算機,當軟件分析其大腦時,可以通過揚聲器聽到老鼠神經元發射的信號。計劃明年用于人體試驗。從理論上,這種技術可以實現雙向控制,也就意味著計算機可以控制大腦以至于控制人類的行為,這無疑會產生很大的風險。
2.6.醫療倫理審查缺乏
國家藥品監督管理局出臺了對醫療 AI的相關指導規范,并已啟動了認證流程,從范圍、風險、臨床實驗上進行了規定。醫院倫理委員會主要負責本醫療機構中藥物和醫療器械臨床試驗、器官移植、涉及人的醫學研究、相關技術應用、動物實驗以及醫療管理等活動的醫學倫理學審查。目前在醫院內實際的應用還未有對 AI 相應的倫理審查機制,有醫院參照藥物臨床實驗引入的倫理審查機制對醫療 AI 引入進行倫理審查,很難做到完全適用。
在實踐中,有的倫理審查委員對于“不傷害”狹義地理解為不傷害身體,對風險的認識仍停留在僅關注生命健康、安全方面,忽視個人數據被不正當處理、個人信息泄露、侵害隱私權所帶來的社會心理風險。更多醫院對醫療 AI 引入并未經過倫理審查。也有醫院在對患者應用醫療 AI 系統時嘗試用患者知情同意書來規避一些潛在風險。
3.醫療人工智能倫理原則
3.1.醫學倫理原則
醫學倫理基本規范沿襲《希波克拉底宣言》直至現代的《日內瓦宣言》,其基本原則包括對患者的不傷害原則、有利原則、公正原則和尊重原則。任何醫療新技術在醫療中應用都基于醫療倫理道德,在倫理范圍內規范醫療實踐的準則和秩序。其新技術最終目的是為了人類健康福祉服務,而非對人類的傷害。
3.2.人工智能的倫理原則
眾多產業組織在人工智能倫理上制定了規范原則。目前,兩個影響較為廣泛的人工智能倫理共識:《阿西洛馬人工智能原則(Asilomar AI Principles)》和國際電氣電子工程師協會(IEEE,Institute of Electrical and Electronics Engineers)組織倡議的《人工智能倫理標準》,鼓勵技術人員優先考慮道德規范自主和智能技術創造中的考慮因素。很多國際巨頭如:IBM,Google,Microsoft,Intel 等都制定了AI 的產品原則和倫理規定。這些原則其大部分都涉及:安全、透明、保護隱私、防止濫用等,核心都是充分維護人類根本利益。可以看出都是以人為核心的理念。
3.3.醫療人工智能倫理規范
目前美國醫學會(AMA,American Medical Association)對醫療 AI 明確提出了規范,特別強調促進精心設計、高質量、經臨床驗證的醫療保健人工智能的發展,即:a.根據以用戶為中心的,特別是針對醫師和其他醫務成員,進行最佳實踐的設計和評估;b.透明;c.符合引線標準的再現性;d.識別并采取措施解決偏見,避免引入或加劇醫療保健差異,包括對弱勢人群測試或部署新的人工智能工具時;以及e. 保護患者和其他個人的隱私利益,并保存信息。
一些中國醫療行業協會也成立了人工智能分會,對醫療 AI 倫理規范上也做了探索。但僅有中國醫師協會超聲醫師分會發布了《中國超聲醫學人工智能行為準則:北京宣言》,從“制定規范、科學管理;實現醫工結合、促進轉化;以臨床為中心,使患者利益最大化”3個方面 13條細則闡述了準則。
目前在跨學科領域的醫療人工智能還少有對倫理上的研究與探索,推測其原因在于醫療 AI 還尚未在臨床得到廣泛的應用,臨床的迫切需求不夠強烈。綜合來看,醫療人工智能的倫理規范,仍是以人為核心,強化患者安全,保護患者隱私,AI 技術要透明,防止濫用,最終目的是促進疾病恢復,維護人類健康,實現健康民主。
4.對醫療健康體系的影響
盡管醫療 AI 不可能取代醫生,但是醫生相當多的重復性、規律性的診療工作可以被AI 所代替。長遠來看,人工智能將產生廣泛的影響,徹底改變醫學實踐,改變患者體驗和醫生的日常生活醫務人員的職業形態必將發生改變。這就對醫生的臨床技能提出了更高的要求,更加注重對患者的人文關懷。而相當一部分醫生面臨職業的嚴峻挑戰。
當醫療 AI 應用逐漸向消費者端滲透。主要表現為個人、組織更加便捷地獲取各專業領域及生活行為方式最佳適宜決策的建議,帶來開放、可及、民主式的醫療,給公眾和醫生更多機遇,也彌補之前醫患之間“信息不對稱”的鴻溝,患者可以更加積極主動地參與自身的診療過程。實現了“健康民主”從而對整個的醫療健康體系產生重大的變革。
5.策略與期望
為醫療人工智能的倫理創造“法律”或“規則”是具有挑戰性的,因為倫理道德界限很難教授軟件系統或者機器,而且醫學和相關影響因素本身的復雜性也決定了醫療AI倫理規范定義的艱巨性。更核心本質是人類的道德與倫理的規范性實現問題。
醫療人工智能系統發現、理解并指出人類在決策過程中的不一致性時,它們還可能揭示出人類自身偏袒、狹隘和認知偏見的方式,反過來促進人類采取更公正或平等的觀點。形成共同價值觀的過程中,人類可能比人工智能進步得更多。
利用技術工具在人工智能中建立道德規范,部署人工智能的人面臨的問題之一是深度學習和神經網絡的黑盒子性質。這使得建立透明度和檢查偏見變得困難。作為技術的提供方,越來越多的公司正在部署技術,搭建平臺來幫助解決這個問題。例如IBM的AI OpenScale、開放源碼工具,以及來自人工智能初創企業的解決方案,可以提供更大的透明度,并檢查偏見。在實現上,要確保創建道德的治理結構并確保人工智能系統的責任,明確的角色和結構,將人工智能道德責任分配給關鍵人員和團隊,并賦予他們權力。利用調整現有的治理結構,在特定的團隊中構建問責制來實現。例如,組織中現有的道德主管(例如首席道德官)也可以被委托負責研究人工智能中的道德問題。建立內部和外部委員會,負責合乎道德地部署人工智能,這些委員會是獨立的,因此不會受到急于部署人工智能的人的壓力。
此外,對于使用的機構,醫院倫理委員會需要對醫療 AI 倫理的制度完善,全方位的對產品和方案進行評估,既要保證安全不傷害也要顧及技術進步性的意義。
2019年7月,中央深化改革委員會召開第九次會議,審議通過《國家科技倫理委員會組建方案》。會議指出,科技倫理是科技活動必須遵守的價值準則。組建國家科技倫理委員會,目的就是加強統籌規范和指導協調,推動構建覆蓋全面、導向明確、規范有序、協調一致的科技倫理治理體系。要抓緊完善制度規范,健全治理機制,強化倫理監管,細化相關法律法規和倫理審查規則,規范各類科學研究活動。這將是國家最高層級的組織機構,指導所有科技類的倫理規范。
對未來展望,一方面期望中華醫學會、中國醫師協會在國家級學會層面上制定醫療 AI 倫理規范,以進行統一的指導。另外一方面對于醫療 AI 生產者與使用者有必要進行教育和培訓了解醫療 AI 的倫理挑戰,同時確保患者充分了解如何使用這些工具來決定其診療。更好的利用醫療 AI 工具為人類提供健康服務。
本文節選自《醫學與哲學》雜志2019年11月刊
CHIMA課題《醫務人員對醫療人工智能(AI)接受度與行為反應研究》
作者:李明、李昱熙、戴廉、李小虎
摘要、關鍵詞、參考文獻略
下一篇: 醫療信息化新聞一周回眸