智慧醫療場景下人工智能應用倫理問題與治理路徑探討
在“健康中國2030”規劃的統籌推進下,醫療行業由傳統醫療轉變為數字醫療、信息醫療,再由數字醫療轉變為智慧醫療。《中國人工智能醫療白皮書》將人工智能在醫療領域的應用歸納為5大方面,即醫學影像、藥物研發、輔助診斷、健康管理和疾病預測,利用人工智能技術助力醫療發展成為社會的研究熱點。新冠病毒疫情期間,人工智能技術在健康管理、藥物研發、疾病預測和疫情防控等方面發揮了重要的作用。人工智能技術不斷發展,在重塑人類生活工作方式的同時,也給現代科技倫理學帶來了安全倫理、人權倫理、責任倫理等一系列倫理挑戰。“AI+醫療”涉及的倫理問題也是現代醫學倫理學無法回避的重要議題。
從科技實踐層面來看,科技倫理既包括科學研究過程中應遵循的倫理規范,也包括科學技術應用過程中應遵循的倫理規范;既包括傳統科技的倫理規范,也包括各類新興科技(如人工智能、基因工程、大數據等)引發的新型倫理問題。科技倫理治理,是對科學技術負面效應的批判性審視,不僅要將這些倫理規范和價值準則應用于科學研究中,更要將其落實于具體的社會治理行動中,引導科技向善。《加強科技倫理治理的意見》指出,要加強科技倫理治理,有效防范科技創新可能帶來的倫理風險。目前,我國正處于建設面向2035的科技倫理體系關鍵時期,在此過程中,重視“AI+醫療”伴隨的倫理問題,不僅有利于完善人工智能應用的倫理原則、規范和體制機制,推動科技倫理體系建設,更有利于確保我國科技創新活動行穩致遠,使科學技術更好地造福社會。因此,研究闡述了人工智能應用于醫療領域的現狀,深入分析面臨的倫理問題及其產生原因,并針對相關倫理問題提出治理建議,為完善“AI+醫療”倫理體系,促進“AI+醫療”規范化發展提供理論基礎。
1 應用現狀
人工智能(AI)誕生于1956年,其發展經歷了多次低谷和高潮。20世紀前,國內外對“AI+醫療”的研究集中在臨床知識庫上。最初的臨床知識庫運行需借助LISP設備,但由于LISP設備無法接連互聯網且造價昂貴,導致臨床知識庫應用受到限制。2000-2015年,國外逐步將人工智能應用于疾病救治,創造了手術機器人、電子病歷等新興產品。而中國致力于臨床知識庫深入研究,“AI+醫療”發展相對緩慢。2015-2017年,人工智能算法進一步優化,其圖像識別準確率大幅提升,“AI+影像”進入快速發展階段。基于前期臨床知識庫的研究,用于疾病判斷的臨床決策支持系統(Clinical Decision Support System, CDSS)產品逐漸趨于成熟。2018年,我國發布了《關于促進“互聯網+醫療健康”發展的意見》,明確鼓勵在醫療保健領域大力發展人工智能等技術應用。在規劃推動下,中國“AI+醫療”進入快速發展階段,創造了智慧病案、智能導診等新產品,而國產手術機器人仍在培育期。
當前,將人工智能應用于醫院層面的服務有智能語音電子病歷、智能導醫問診、醫療質量監控、遠程醫療、智能手術機器人等。某公司將人工智能與電子病歷結合,開發了一款語音病歷錄入系統,極大縮短了醫生報告錄入的時間,提高了醫生的工作效率。有學者提出并研發的臨床“AI+COVID-19”診斷系統,可以用于識別肺部CT影像,并精確診斷、量化和預測COVID-19肺炎。“妙手S”腹腔微創手術機器人、達芬奇外科手術機器人等外科手術機器人也廣泛應用于臨床治療。除此之外,人工智能還可用于體檢機構的智能健康管理,基因檢測機構的基因檢測,疾控機構的傳染病防控和藥企的藥物研發等工作。
2 倫理問題及其產生原因
智慧醫療的發展產生了海量的醫療數據,而“AI+醫療”正是通過大規模機器學習和深度學習等技術,處理和分析這些海量的醫療數據,并從中挖掘有價值的數據信息,最后通過建立模型找到解決臨床問題的方案以及進行疾病預測等。人工智能在推動醫療健康產業迅速發展的同時,也帶來了一系列倫理問題。根據人工智能倫理問題的特征和產生方式的不同,可以從技術、數據和社會應用3個方面分析其產生的原因。
2.1“AI+醫療”倫理問題的產生原因
2.1.1 技術方面。算法與系統的安全問題、算法歧視問題、算法決策問題、算法的透明度問題等都是由人工智能技術引發的倫理問題。算法與系統的安全問題,主要是指人工智能算法被惡意篡改,或系統的漏洞被攻擊和惡意利用的情況;算法歧視問題,主要是指研究人工智能算法的人員的認知偏見或者訓練數據不完善導致歧視性的決策結果;算法決策問題,主要是指人工智能得出的不可預見性結果;算法的透明度,主要是指算法的可解釋性和人類的知情同意。
2.1.2 數據方面。人工智能技術的發展離不開海量數據。隨著智能電子病歷、智能健康監測等技術的廣泛應用,給平臺運營方提供了大量收集用戶信息的機會,數據收集、保存、提取、流通和利用的安全性,成為引發人工智能倫理問題的重要原因。
2.1.3 社會應用方面。人工智能算法的濫用或誤用引發了人工智能社會應用方面的倫理問題。由于算法濫用或誤用,人們在社會活動時容易出現使用目的、方式、范圍等偏差,從而導致不良的影響和后果。以智能影像診斷為例,利用人工智能輔助影像診斷,可以提高醫生診斷效率,但是,如果由人工智能完全替代醫生診斷,則有可能診斷錯誤,進而導致醫療事故。
2.2 人工智能應用于醫療領域的倫理問題
2.2.1 醫生主體地位被削弱。人工智能最重要的核心是“數據算法”。人工智能通過收集海量的數據進行提取分析,并迅速得出相應的結論或觸發相應的操作。隨著算法的不斷完善和發展,人工智能被逐步應用于輔助或代替醫生做出診斷。從導診、檢查分析、病例錄入、手術和放療等都可見到人工智能的影子。隨著人工智能主體性的增強,醫生的主體性相對減弱。醫務人員是醫療活動中的主體,醫生通過學習和實踐掌握著豐富的診療經驗和強大的風險掌控能力,使其能夠完成疾病的診斷與治療。然而,醫療大數據、人工智能的普及引發了醫生無用論的觀點。患者也因為對科學的信賴而偏向相信數據分析結果,這也導致醫生在醫療主體中的地位被逐漸削弱。當前,醫生的部分決策權已被人工智能取代,人工智能會提示醫生如何做出下一步決策。在此情形下,醫生對人工智能的依賴性增加,醫生的主體地位逐漸弱化。
2.2.2 數據或隱私安全風險增加。隨著谷歌公司“夜鶯計劃”等事件的曝光,人工智能隱私、安全問題受到世界各國的關注。“AI+醫療”的數據涉及個體身份信息、家庭環境、病歷資料、個人生活習慣等,有些智能健康管理APP甚至可以收集個體的情緒變化、精神狀態、心理波動等數據。這些信息被實時上傳至數據庫,供研究機構隨時調取分析,導致數據或個人隱私被泄露的風險急劇增加。同時,在大數據環境下,不法分子可能利用數據挖掘預測技術對碎片化的個人健康信息進行處理,以此推測出個人的核心隱私信息,個人數據或隱私的保護難度加大。此外,“AI+醫療”的實施需要依托各類數字平臺的建設,數字平臺在存放或使用海量數據方面可能存在安全隱患。一方面,平臺運營方掌握了大量醫患數據,大數據下的云服務與精準推送可能造成醫患用戶被“數字控制”。這不但包括控制醫患用戶的使用行為,還包括控制搭建數字平臺的底層技術。平臺運營方擁有海量的醫患用戶數據,可能引發數據壟斷,相關數據會面臨較大安全風險。相關核心數據如果跨境流動,其潛藏的國家安全隱患更為巨大。另一方面,未來醫療機構間、數據平臺間的聯合將更加緊密,數據在機構間、平臺間的流通也存在一定安全風險。
2.2.3 醫患信任危機加劇。醫療服務長期具有醫患信息不對稱的特征,使得醫患信任危機成為醫學倫理學長期面臨的難題。隨著人工智能在醫療行業的普遍應用,雖然一定程度上為患者提供了方便快捷的咨詢、初診服務,緩解了看病貴、看病難以及誤診的問題,但人工智能算法結果的不確定性和利己性、過程的難理解性等可能在實際診療中給醫患信任帶來新的危機。新的危機主要表現:一是就醫環境智能化逐漸改變患者的行為方式。智能便攜設備時刻收集患者的數據,并實時給予患者治療建議與運動提醒,日復一日改變了患者的就醫行為和價值選擇。一方面,人工智能在醫療領域的某些方面表現優異,造成了患者的“科技迷信”,對醫生的診斷經驗持懷疑態度。另一方面,大數據下的精準推送服務會投其所好,使患者更加相信網絡信息,而對醫生產生懷疑態度。二是人工智能挑戰了醫生的權威性和知識壟斷地位。傳統醫患關系中,醫生在醫學專業知識和信息資源中占權威和壟斷地位。醫療領域人工智能的誕生匯聚了海量的醫學知識,其知識存儲、讀取能力遠超于醫生,對部分疾病的診斷效率和精確度也大幅高于醫生,因此患者對人工智能給出的診療建議的信任程度超過醫生,由此對醫生的建議產生質疑。
2.2.4 醫療資源分配不均加劇。人工智能可以高效地完成各類醫療任務,如錄入病例、輔助診斷、遠程醫療等,其根本目的是使所有人從中受益,并非加劇醫療資源分配的不均。智慧醫療是IBM于2008年底提出,旨在緩解醫療資源分配不均的矛盾,提升衛生服務可及性、公平性。然而,搭載人工智能的醫療儀器具有精密度高、造價昂貴、維護成本高等特點,使得“AI+醫療”難以全面推廣,擁有優質醫療資源的醫院門庭若市,而基層醫療機構無人問津,一定程度上加劇了社會不公與資源分配不均。
2.2.5 事故責任界限模糊。基于人工智能的醫療服務使得各種智能便攜設備、遠程醫療系統、遠程健康監測系統、健康云平臺等參與其中,涉及的法律主體包括設備開放商、軟件系統開發商、醫療衛生服務機構、醫務人員、網絡運營商、服務提供商等。若在服務過程中發生意外事件,其責任界限模糊,加大了事故責任界定難度。
3 加強“AI+醫療”倫理治理路徑建議
3.1 強化醫生主體地位
強化醫生的主體地位是“AI+醫療”倫理治理的首要途徑。首先,要肯定醫生的獨立性。人工智能可以輔助醫生做出診斷,但不能完全取代醫務人員。當人工智能的決策結果與醫生的臨床經驗發生沖突時,必須將最終決策權交給醫生,而人工智能的決策結果只能作為參考。其次,要肯定醫生的親歷性。醫生應親自參與患者診療的全過程,在非關鍵節點可以適當使用人工智能,以此提升診療效率,而在關鍵性節點,其最終的決策應由醫生完成。
3.2 建立健全信息數據保護制度
我國目前關于保護醫療健康信息數據的規定多散見于各個法律制度,針對“AI+醫療”信息數據保護的法律法規較少。因此,政府及相關部門應建立健全“AI+醫療”信息數據保護制度,細化界定“AI+醫療”數據的保護標準和保護范圍。同時,政府應統籌制定隱私安全保護和監督規范,醫療機構、健康管理機構以及各類與健康信息數據收集、管理有關的機構應在政府規范的統領下,根據自身工作特點,制定相應的隱私安全保護規范,并安排專職人員進行監督,確保信息數據安全性。政府可以建立專門的數據安全和保護平臺,定期對相關機構開展數據安全性檢查和數據倫理學教育,加強其職業道德修養,提升數據保護能力。
3.3 增強患者對醫務人員的信任感
“AI+醫療”的誕生改變了醫患之間的倫理關系,針對“AI+醫療”中醫患信任缺失的倫理問題,其治理路徑應以增強患者對醫務人員的信任感為方向。一方面,要強化醫患目標一致性意識。無論是否應用人工智能,醫生的最終目標都是希望治愈患者。因此,以醫生為主體、人工智能為輔,重建醫患間信任的橋梁,才能共同協作完成診療康復全流程。另一方面,要強化政府監管職能。政府應完善相關政策法規,對有關醫療機構或企業進行監督和規制,保證人工智能功能和性能的真實性與可靠性。同時,還應對各類違法違規的“AI+醫療”行為予以懲處,以此增強患者對醫務人員的信任感,有效化解醫患信任危機。
3.4 提高醫療資源配置效率
“AI+醫療”旨在提高醫療資源配置效率,在一定程度上緩解了醫療資源分配不均衡的問題。然而,搭載人工智能的儀器設備具有高端化的特點,使得普通民眾難以負擔得起智能醫學技術,醫療資源配置不均衡問題加劇。因此,政府應充分發揮其在資源配置中的引導性、彌補性作用,加大公共醫療資源供給力度,著力建成分工明確、運行高效的整合型醫療衛生服務體系,切實提升醫療公平與公正。其次,政府應將“AI+醫療”納入社會保障體系,降低民眾的醫療負擔,保證全民享有智能醫療發展的紅利。
3.5 完善事故責任界定體系
完善事故責任界定落實體系刻不容緩,政府應加強專項立法,出臺“AI+醫療”責任分配等相應法律法規,建立人工智能應用審批體系,從法律層面規范“AI+醫療”的相關標準并進行有效監管,明確人工智能應用于醫療過程中各法律主體的責任和義務,建立健全智慧醫療審查和風險規避制度。
上一篇: 安志萍:淺談醫療數字孿生對醫療安全方面的影響及對策
下一篇: 林志剛:信息化支撐醫療管理高質量發展