AI醫療機器人臨床應用法律風險及其應對策略
隨著人工智能(artificial intelligence,AI)技術不斷迭代更新,“AI+醫療”正在迅速發展。國家工信部印發的《人形機器人創新發展指導意見》中提出加速“拓展人形機器人在醫療等領域的服務應用,重點提升人機交互可靠性和安全性”等要求,為AI醫療機器人的創新發展和應用提供政策指引。近年來,AI醫療機器人如手術機器人、康復機器人、診斷機器人等廣泛被應用于臨床診療中,實現新一輪科技革命在智慧醫療中的蓬勃發展,為社會醫療體系帶來全新的創新驅動力。然而,盲目的科技發展所帶來的一系列制度隱憂容易引發患者不信任甚至排斥心理,因此必須重視科技帶來的負面影響。醫療人工智能技術不斷發展和AI醫療機器人逐漸臨床應用的同時,對法律制度和倫理規范也帶來不小的挑戰。
1 AI醫療機器人臨床應用現狀
1.1 AI醫療手術機器人
手術機器人在醫療領域的應用靈感由來已久,第一臺手術機器人的臨床應用可以追溯到20世紀80年代,關節臂式工業機器人被臨床應用于執行神經外科活檢手術臨床試驗。手術機器人采用多模態智能感知和遠程人機協同技術可以實現在手術過程中高精度控制,很大程度提高了手術的治療效果,經過嚴格培訓的醫生可通過手術機器人的遠程操控臺和5G成像系統實現人機協同治療,可以高質量完成更復雜的手術。隨著外科手術復雜程度的提高以及患者對高精度、低損傷、舒適化的診療需求提高,依賴醫生手、眼的傳統手術面臨難以克服的瓶頸。憑借人工智能技術,AI醫療手術機器人能夠突破醫生觀察和操作的生理極限。其優勢主要在三點:第一,手術機器人可以作為手術的高精、減壓、穩定的優質助手。3D影像技術可以10~30倍放大手術部位并實現誤差限縮在毫米級的精準定位,很大程度減少醫生體力消耗和因疲勞帶來的手部震顫。第二,手術機器人參與手術相較于傳統開放性外科手術具有微創的優勢。創口在1~2 cm(傳統手術創口一般為10~20 cm),出血量降低95%以上,患者恢復時間更快。第三,手術機器人有助于破解醫療資源不平衡、不充分的難題。手術機器人的參與能實現醫生遠程操控手術并且減少更多醫務人員參與,醫生通過5G信號實時傳輸的三維立體成像并操縱手術機器人機械臂就能夠實現跨越距離的手術。
1.2 AI醫療康復機器人
康復機器人又稱為護理機器人,是將康復或護理工作與傳統的機器人相結合,通過功能代償和輔助患者康復訓練等方式實現殘障人士、術后部分功能障礙人士、老年人群體生理功能的替代或恢復,通過不同場景下與患者的人機交互實現生理功能的恢復、補償或替代,不僅能夠對因中風、創傷性腦損傷等原因造成的運動障礙進行功能性恢復,還能夠幫助自閉癥、多動癥等認知功能障礙患者恢復。憑借人工智能技術,AI醫療康復機器人能夠隨時監測患者的訓練數據,通過即時數據反饋并分析,及時提高患者的訓練強度和效率,幫助患者盡早恢復正常生活參與能力。其優勢主要在于三點:第一,康復機器人結合人工智能技術實現人機交互的主動柔順性控制。通過高精度的力傳感器進行數據反饋,可以敏銳檢測力的變化,同時通過摩擦補償,重力補償,慣量識別等一系列的算法模型,能實時動態檢測患者的運動意圖,給予合適的助力。第二,康復機器人結合生物力學分析技術實現患者康復訓練過程中的活動自由。康復機器人能夠提供符合人體生理特征的步態訓練,采取生物反饋功能以及動態減重(Levi)和骨盆控制(FreeD)系統可以讓設備在保證四肢自由活動的同時實現骨盆自由轉動。第三,AI醫療康復機器人更有助于普惠醫療的實現。康復機器人采取超聲波檢測技術和數據反饋功能實時掌握患者膀胱內尿量變化以及預測排泄時間,能夠有效維護患者個人尊嚴和減輕陪護者的壓力。
1.3 AI醫療診斷機器人
診斷機器人可以分為預問診機器人和輔助診斷機器人。所謂預問診機器人,是指利用語音識別、自然語言處理技術將患者對自己病癥的描述與標準醫學知識庫進行比對,從而完成患者導診、問診等服務。所謂輔助診斷機器人,是指利用人工智能技術如AI影像技術輔助診斷,幫助醫生進行如癌癥、心臟病等疾病的臨床診斷,提高病癥判斷的準確率。隨著算法、算力和數據能力的提升,生成式AI在傳統AI基礎上以更革新的技術、場景化應用的形式,賦能患者從診療到愈后管理的完整鏈路。第一,在癥狀感知階段,生成式AI通過深度學習和神經網絡提供醫學知識內容呈現和智慧問答,為患者提供初步的個性化診斷服務。第二,在疾病診療階段,生成式AI對醫學圖像(B超、CT、MRI圖像等)進行分析,其識別準確率不斷提升,結合人工智能分析系統提供生命體征分析結果,提升疾病診斷的效率和準確度。第三,在疾病復診階段,生成式AI可以對患者生命體征數據和病情變化情況做出分析和預警,幫助醫生及時發現異常情況并采取應對措施,并且生成式AI能夠精準確定患者所需藥物并進行配給。第四,在康復保養階段,生成式AI可以提供個性化的愈后健康知識內容和愈后健康管理計劃。
2 AI醫療機器人臨床應用法律風險
2.1 AI對醫生自主地位的消解
在傳統醫療領域,醫生與患者在治療決策的過程中進行合作,最終仍以醫生決策為最終依據,尊重醫生的獨立地位和知識經驗,由醫生主導整個診療活動。但隨著人工智能技術在醫療領域的應用以及算法技術的不斷完善,AI醫療機器人能夠逐步替代醫生做出一些診斷和治療決策。從問診、導診、檢測、手術、康復、放療等階段都有AI醫療機器人的參與,醫生的自主地位受到影響。
2.1.1 醫生在醫療過程中的決策地位降低。人與機器之間的關系永遠是主客體的關系,機器的使用本質上是為了輔助人類更好地進行社會性勞動。然而,隨著AI醫療技術臨床應用的逐漸廣泛和深入,醫務人員對AI醫療機器人的依賴程度也在不斷加深,容易產生醫療機械化的現象。AI醫療技術通過算法技術可以輕松地繞過傳統的醫學倫理審查和規范強制,并且通過其強大的診斷效率和精準的數據反饋能力逐步讓醫務人員讓渡自己對醫療活動的主動控制權。隨著AI醫療技術愈來愈普及化,醫務人員在診療的過程之中更多地選擇參考AI的治療方案,尤其是在醫療資源相對緊缺、診療壓力大以及新手醫務人員缺乏全面的臨床診療經驗的情況下,最終會導致醫務人員的自主決策空間不斷被AI醫療機器人擠占,醫生在醫療過程中的決策地位不斷降低。
2.1.2 AI醫療機器人法律地位定性模糊。AI醫療技術的飛速發展正在倒逼學界對其法律人格制度的重新研判,對AI醫療機器人的法律地位重新給出定義。同時,捋清AI醫療機器人法律地位也是解決AI醫療事故中責任問題的先決條件。目前,國內外對于AI醫療機器人法律地位的學說主要有擬制人格說、有限人格說、動物說以及工具說幾類。擬制人格說、有限人格說預設了AI醫療機器人具備了自主意識,傾向于認為其具備“人”的屬性,即具備法律主體地位,能夠獨立承擔法律責任。但認可該觀點的幾個國家在肯定AI主體地位的基礎上,卻要求所有者或管理者承擔法律責任,這顯然與賦予AI法律主體地位的觀點背道而馳。動物說認為AI甚至具備如同自然人一般的地位,具備法律主體地位是應有之義,這一解釋顯然無法解釋“智能化”的問題。工具說是目前最為主流的學說,該學說認為AI僅僅只是人類完成某一領域任務或達到實現某一目的的輔助工具,是以“物”的地位而存在,因此自然不具備法律上的主體地位,當然也無法獨立承擔法律責任。但學術上的觀點爭議導致實踐中的醫療事故責任判定標準不一,必須從法律上對AI醫療機器人的主體地位進行清晰界定。
2.2 AI醫療事故中責任問題
隨著AI醫療機器人在手術、治療、診斷等臨床應用中呈現逐漸擴大和深入的趨勢,AI醫療侵權案件量也不斷上升。據統計,美國外科手術機器人僅在13年間,就造成了1391起醫療事故,導致144位患者死亡。國內AI醫療事故也是糾紛不斷,以“醫療損害”“機器人”為檢索關鍵詞在中國裁判文書網中進行搜索,共計66份裁判文書。但上述數據對該類案件僅是管窺蠡測,AI醫療事故復雜性高,較多案件和解結案未能成訴,且裁判文書網收錄判決書數量有限,AI醫療侵權案件量應比上述數據更加龐大。總體而言,AI醫療機器人所帶來的法律風險主要有以下幾方面。
2.2.1 侵權責任類型模糊。現階段認定AI醫療機器人致人損害的法律責任主要采取“人-物”二分法,即認為當下人工智能僅僅是工具地位,不存在匹配人類智慧的獨立主體意識,對致人損害的侵權后果不具備“辨認能力”和“控制能力”,因此要求AI醫療機器人承擔侵權責任主體不具備合理性。基于此,當下對AI醫療機器人侵權責任仍沿用傳統的過錯責任與嚴格責任為核心的二元問責制。在一般醫療場景下,AI醫療機器人臨床應用造成的醫療事故應當適用一般醫療侵權責任,但目前國內也有學者認為因AI醫療機器人本身缺陷造成的醫療事故也可以適用產品責任。根據我國《醫療器械監督管理條例》規定,計算機軟件也可以歸類于醫療器械的范疇,那么基于計算機軟件為核心的AI醫療機器人同樣也屬于醫療器械,因此AI醫療機器人在臨床應用中因產品缺陷造成醫療事故,也有了適用產品責任的解釋空間。基于此,AI醫療機器人臨床應用所產生的侵權既可能適用一般醫療侵權責任,也可以適用產品責任。現實中人工智能醫療案件往往錯綜復雜,事故往往是多個行為共同促成,責任主體也呈多元化趨勢,導致司法實踐中侵權責任類型認定不明確,無法確定責任主體的義務范疇。
2.2.2 責任主體難以追溯。AI醫療機器人臨床應用所產生的醫療事故可能引發醫療侵權責任,也可能引發產品侵權責任,因此需要從兩個角度對責任主體的追溯進行闡釋。從醫療侵權責任角度出發,醫療機構及其醫務人員是事故發生的唯一控制者,醫務人員誤診或誤操作是醫療事故引發的主要原因,法律僅需要通過過錯原則就可以確定醫療事故的責任主體。但當醫生自主決策轉變為“人-機”混合決策時,AI醫療機器人的使用者、管理者多方主體介入決策過程,法律便需要在多方主體參與決策和算法復雜特質的共同影響下對何種主體承擔侵權責任做出判斷。從產品責任角度出發,我國《民法典》規定醫療器械的主要責任主體為生產者或銷售者,而將AI醫療機器人設計者的責任沒有進行明確,是司法實踐中追責困難的重要原因。事實上,AI醫療機器人與普通醫療器械相比有很大不同:第一,AI醫療機器人的機械結構和程序設計更為復雜,增加了醫患雙方對其認知難度,導致在法律和事實兩個層面認定侵權責任困難。第二,AI醫療機器人具備自主做出決策和深度學習的能力,這導致事故責任主體的認定和事故發生原因的查明難度增大。第三,AI醫療機器人在臨床應用的過程中會直接深入人體或實施切割、縫合等對人體組織有重大影響的操作,一旦發生醫療事故直接危害患者健康。這些特點都體現AI醫療機器人設計者在其中的重要作用。此外,導致AI醫療機器人發生醫療事故的原因大都是因為自主決策的失誤而非產品本身的缺陷。因生產者僅對外部機械結構的缺陷負責,而法律規定并未對設計者的侵權責任進行明確,導致AI醫療侵權案件中因算法程序缺陷引發的醫療事故責任往往難以追究。
2.2.3 因果關系難以認定。AI醫療侵權案件的發生往往是多因一果、多因多果的過程,再加上“人-機”混合決策的復雜性,加劇了因果關系認定的難度。第一,算法本身具有“技術歧視”風險,該風險主要來源于數據缺乏代表性和算法偏見兩個方面。一方面,AI醫療機器人會在臨床應用前通過輸入和采集大量醫學數據和實踐案例進行深度學習,此時若收錄的數據不夠全面和準確就會導致算法決策準確性大打折扣。另一方面,算法程序的開發者可能會將主觀偏好編入程序中或疏忽某些重要的指標,這都會對算法決策的公平性產生影響,造成結果偏差,并且算法程序并不會自主排除歧視,反而傾向于將歧視固化甚至放大,使歧視長存于算法決策中。第二,算法本身具有“黑箱”屬性,又稱為“不透明性”,即算法復雜且快速的計算過程導致醫患二者均無法感知和理解決策做出的過程和結果。AI醫療機器人可捕捉到人類無法察覺到的微小數據變化,但這也讓其產生難以檢測的偏見,并且這些看似微小的偏見會在決策過程中不斷被放大,使部分患者受到歧視性對待,甚至最終導致醫療事故的發生。第三,算法本身具有“自主學習”的能力,這就意味著AI醫療機器人可以自主對一些臨床操作判斷做出一些決策。可見,當AI醫療機器人決策失誤導致醫療事故時,由于算法固有的特性導致患者在舉證過程中證明醫務人員與事故發生具有因果關系更加困難。
2.3 AI醫療中數據安全問題
AI醫療訓練中需要大量的數據進行喂養,尤其是憑借患者運動數據反饋并分析計算的AI康復機器人和憑借患者數據信息反饋做出決策的AI診斷機器人。醫療大數據是其臨床應用的基礎,其中包含大量的患者個人信息,如患者的年齡、身高、通訊地址等身份信息、以往的身體健康狀況及通過基因檢測得出的基因信息等基本信息,還包含對于患者個人敏感度極高的負面醫療敏感信息,如遺傳疾病、傳染病等可以導致個人在學習、就業、保險等方面受到歧視的信息。我國《憲法》《民法典》等法律均規定醫務人員對患者的醫療數據都負有保密義務,如果不存在正當化事由導致信息泄露就需要承擔民事責任、行政責任甚至在情節嚴重的情況下還需要承擔刑事責任。
2.3.1 AI康復機器人應用下的數據安全問題。AI康復機器人預先儲存醫學相關信息,通過自主深度學習掌握基本的臨床醫學知識,然后再應用到診療活動中。大量的臨床康復數據和算法程序是AI康復醫學領域應用的基礎,通過不斷地診療訓練和數據反饋并依據算法自動調整改進,從而實現患者康復過程的精準高效。目前,大部分的康復醫療采用運動療法、作業療法和言語療法,對康復診療所達到的實際效果偏于主觀,更多的是取決于康復師和治療師的經驗和專業能力。因此在康復過程中很難對患者肢體的恢復程度和功能的客觀變化有明確的標準,但AI康復機器人能夠憑借精準的數據收集和反饋形成一個標準化、準確化的康復治療體系,這也導致醫療臨床應用過程中康復師和治療師對其的依賴。AI康復機器人不僅能為患者提供一個準確的肢體功能評估,及時調整康復計劃促進患肢恢復,還可以在臨床康復治療的過程中從視覺、聽覺等各方面實現人機交互,從而提高康復治療的效果。AI康復機器人無時無刻將患者的身體功能數據進行記錄和反饋,該數據對于患者來說尤為重要,尤其是涉及患者手術內容、生理和心理健康情況、身體健康程度、患肢恢復狀況等敏感個人信息。但AI康復機器人的保密性仍然令人擔憂,畢竟所存儲的信息任何人均可以調取,即便是采取了加密技術也不能完全阻止黑客的竊取。摒棄對患者個人數據的保護,全力發展醫療人工智能技術或追求個人數據的全面保護都不可取,必須在二者之間找到平衡點。
2.3.2 AI診斷機器人應用下的數據安全問題。AI診斷機器人分為AI預問診機器人和輔助診斷機器人。在AI預問診的應用場景下,所獲取的數據主要有2類:第一類是通過從患者提出的問題中提取關鍵詞所獲取的信息,患者的問詢過程之中為了提高問診的準確性,不可避免盡量詳細描述病情,此時許多涉及患者身心健康的信息內容便會被AI捕捉。第二類是通過對患者提供的病情進行分析得出結論,所得出的結論也會成為數據進行存儲。算法是通過不斷訓練和學習提高決策的準確性,因此每次問診所得出的結論也會被存儲起來。在AI輔助診斷的應用場景下,所獲取的數據主要有4類:第一類是醫學影像設備產生的醫學圖像數據,如X射線、CT、MRI等圖像。第二類是醫用電子設備產生的生理參數數據,如心電、腦電、血壓等波形數據。第三類是體外診斷設備產生的體外診斷數據,如病理圖像、顯微圖像等。第四類是特殊情形下的通用設備產生的用于醫療用途的客觀數據,如數碼相機拍攝的用于皮膚疾病診斷的皮膚照片、健康電子產品采集的用于心臟疾病預警的心電數據等。這些數據存儲著對患者來說均屬于私密的敏感信息,如果存儲和處理不當,很容易會引起醫療數據泄露和濫用的后果。
3 AI醫療機器人臨床應用法律對策
3.1 明定AI醫療機器人法律地位
鑒于AI醫療機器人固有的“技術黑箱”和“技術歧視”特性極易導致算法程序決策錯誤引發醫療事故發生的風險,必須堅持人類中心主義,避免醫療決策的空心化。在具體的做法上,維護醫務人員醫療主體基本權利,實現醫務人員在診療過程中的決策地位,同時也要明確AI醫療機器人的客體地位,使其回歸工具屬性,打破醫務人員對其過度依賴的心理。
3.1.1 維護醫務人員診療中的自主地位。堅持人類中心主義的人工智能法治運行原則是法律正義價值在數字領域的體現,也是數字正義的基本內容。然而,算法程序以效率為導向,決策本身具有內生性風險,非常容易與數字正義相向而行。為了維護關乎民生的醫療領域正義,必須遵循數字正義下科技向善原則,重新實現醫務人員醫療決策的主導權。一方面,在AI醫療機器人算法程序編寫的過程中介入積極的價值導向的人為干預。通過“自上而下”的一般性醫療倫理法則指導和約束機器人決策的治理范式,也即將基本的醫療倫理通過編程的方式輸入到程序之中,便可以達到醫療數據來源的合法、準確、科學以及數據的普遍適用和系統全面,實現模型訓練的數據正義。另一方面,在AI醫療機器人算法訓練過程中輸入指導性案例以形成系統性價值觀。通過“自上而下”的案例訓練讓AI醫療機器人理解醫療道德與倫理,也即場景化案例學習讓AI模擬人類的道德行為,從而獲得普遍的道德以此規范未來的決策。
3.1.2 明確AI醫療機器人客體地位。目前而言我國并未對AI的法律地位做出明確的規定。從外觀而言,AI醫療機器人是具有物理形態的醫療工具,仍屬于醫療器械的范疇。從內在而言,AI醫療機器人是通過算法程序提供決策的系統。該系統雖然有數據訓練、自主學習的能力,但仍舊是由人類設計并控制,并沒有做到脫離人類存在完全自主獨立從事診療活動。從目前AI醫療機器人發展階段來看,雖然其具有強大的學習能力,但仍不具備像人一樣思考的自主意識。在當下診療活動中,做出最終診療結論以及下達指令的仍應當是醫務人員。因此,AI醫療機器人不應當具備獨立的法律主體地位,仍屬于法律客體的范疇,是輔助醫務人員進行診療活動的醫療器械,在算法程序運行的各個階段都必須有醫務人員的指導和控制。在事前防范階段,醫務人員必須盡到AI醫療機器人投入臨床應用的審查義務。在事中監管階段,AI醫療機器人的設計者應當事先將關乎生命健康的重大算法參數進行報備,便于劃分責任主體。在事后問責階段,分類構建醫療領域的算法問責機制,即在區分AI醫療機器人產品侵權還是醫療侵權的基礎上,判定到底追究哪一方責任。
3.2 明晰AI醫療事故中法律責任
在明確AI醫療機器人的法律客體地位后,應當盡快對其侵權責任問題遵循“最小化原則”和“程序化原則”加以解決。“最小化原則”是指在最小程度影響現行法律制度的前提下盡可能通過法律解釋的方式解決AI醫療機器人的侵權責任問題,“程序化原則”是指盡可能對現行法律制度進行程序上的技術改造。針對當前AI醫療機器人侵權現狀,宜以一般醫療侵權責任和產品責任為基礎,通過最小化和程序化的改造,明確不同侵權場景下的侵權責任規則適用。
3.2.1 明確侵權責任類型。明確侵權責任類型的重點在于區分不同侵權場景下具體是適用一般醫療侵權責任規則還是產品責任規則的問題。在一般醫療侵權責任規則下,由醫療機構承擔醫務人員在診療活動中使用AI醫療機器人因過錯導致損害而產生的損害賠償責任。在產品責任規則下,由AI醫療機器人的生產者或設計者承擔因產品缺陷導致損害而產生的損害賠償責任。可見,區分二者的關鍵之處在于損害發生的原因來源于醫療操作不當還是產品本身缺陷,那么明晰損害原因產生類型即可解決這一關鍵問題。
就醫療操作不當而言,主要包含3方面:第一,技術組織不當,如醫務人員向AI醫療機器人下達錯誤指令,包括輸入錯誤的數據、強行干預決策過程、誤操作導致系統紊亂,以及醫療機構未組織醫務人員充分培訓或開展有效的考核工作;第二,倫理組織不當,醫務人員并未向患者及其家屬釋明AI醫療機器人參與診療的必要性、潛在風險以及可能存在的技術偏見;第三,管理組織不當,醫療機構對AI醫療機器人沒有定期進行保養和檢修,未對AI醫療機器人“黑匣子”盡到保管義務或無正當理由拒絕患者及其家屬的查詢申請,沒有盡到后勤管理保障義務,導致防火墻虛化或備用電路不穩定等原因造成醫療事故。
就產品本身缺陷而言,主要包含3方面:第一,制造缺陷,即AI醫療機器人在生產過程中外觀、材料、零部件等存在物理缺陷,導致其部分功能無法發揮正常功效;第二,設計缺陷,即AI醫療機器人在生產過程中所編入的算法程序存在缺陷,導致其判斷出現重大錯誤;第三,警示說明缺陷,即AI醫療機器人算法程序的歧視程度、誤差率、禁止操作行為等信息沒有在明顯的位置標明或通過合理的途徑讓使用者獲悉的情形。此外,當一次醫療事故是由于醫療操作不當和產品本身缺陷共同造成的時候,則應根據原因力大小確定損害賠償責任的大小。
3.2.2 明確侵權責任主體。由于AI醫療事故涉及多個侵權責任規則的適用以及多方利益主體,因此在明確侵權責任類型后還需要在此基礎上進一步明確侵權責任的主體。從一般醫療侵權責任規則出發,侵權責任主體主要有醫療機構及其醫務人員。在民事侵權責任上,醫療機構承擔替代責任,即醫療機構應當對患者在診療過程中受到的損害承擔賠償責任,無論這個主觀過錯是來源于醫療機構還是醫務人員。在刑事侵權責任上,醫務人員在診療活動中嚴重不負責造成患者死亡或嚴重損害健康的,承擔刑事責任。在AI診斷領域,AI手術機器人與輔助診療機器人均不具備法律主體地位,因AI診斷錯誤引發醫療事故的,首先要追究醫務人員的過失責任,即便是AI手術機器人通過預設的程序和提前輸入的指令自主做出的決策,醫務人員也要承擔監管義務。在AI康復領域,醫務人員因未掌握操作技能造成的醫療事故,或未按說明要求進行的操作造成患者損害的,同樣要承擔侵權責任。
從產品侵權責任規則出發,侵權責任主體主要有生產者、銷售者以及倉儲者和運輸者等第三方。生產者、銷售者顯然是主要的侵權責任主體,但仍有區別,二者均可能承擔中間責任或最終責任主體,但銷售者承擔最終責任主體主觀必須有過錯,倉儲者和運輸者則是被追償的對象。如前所述,AI醫療機器人算法程序設計者的地位十分重要,由于醫療領域極高的專業性使得設計者往往與生產者相分離,生產者負責外部機械結構的設計和制造,設計者負責為內核系統程序進行編寫,二者分別負責完成相對獨立的工作,因此其責任也不應混為一談。AI醫療機器人的核心技術是內在的算法程序,而設計者更是程序生成的關鍵主體,也不應與倉儲者和運輸者相提并論。綜上所述,應當在立法中考慮將設計者納入產品侵權責任主體且與傳統生產者同等地位,規定生產者或設計者對AI醫療機器人產品缺陷承擔無過錯責任。
3.2.3 適當減輕患者舉證責任。在一般醫療侵權責任規則與產品責任規則競合時,應當根據原因力大小確定損害賠償責任主體。但根據我國實務通說當請求權競合時受害者只能擇其一起訴,其中對因果關系的證明力度因請求權基礎的不同而不同。在一般醫療侵權責任的脈絡下,患者需要證明醫療機構或其醫務人員的診療過失,而在產品侵權責任下,患者僅需根據無過錯規則原則提供AI醫療機器人產品缺陷的表面證據即可。可見,產品侵權責任中的因果關系認定標準相較于一般醫療侵權責任的更低。AI醫療機器人產品缺陷同傳統醫療器械產品缺陷不同之處在于算法程序設計缺陷也屬于產品缺陷的一種。鑒于AI醫療中存在證據偏見和不透明、當事人對算法技術的控制力弱等現象,該類缺陷的舉證難度極大,往往導致患者追責困難。因此為落實民事證據法平等原則,確有必要適當減輕AI醫療中患者的舉證責任:當法院認定是由于AI醫療機器人算法程序具有設計缺陷導致客觀上產生難以解釋的錯誤時,可以減輕受害者的舉證責任,轉由被告承擔。這一做法并非為了懲罰AI醫療機器人生產者或設計者的過錯,而是因為AI醫療事故中的因果關系極度復雜難以厘清,醫療機構、生產者或設計者作為被告往往占有一定的技術優勢,能夠捋清因果關系,因此要求被告在AI醫療侵權案件中承擔更重的舉證責任,以此平衡原被告雙方實力懸殊的舉證能力。
3.3 規范AI醫療中數據利用行為
醫療大數據是AI醫療機器人算法程序運行的基礎,但其中又包含了大量患者的個人信息。我國《個人信息保護法》將醫療健康領域的信息納入敏感個人信息的范疇并要求采取更為嚴格的保護措施。為了確保AI醫療機器人的數據安全,必須建立完善的數據安全管理制度,充分考慮AI醫療數據處理的特殊性,注重對患者個人信息權益的保護。
3.3.1 加強醫療數據安全。鑒于AI醫療事故的復雜性和專業性,AI醫療機器人存儲和利用數據的每個環節都應當受到監管和控制,以防止事故的進一步惡化。第一,對數據存儲和傳輸進行加密處理。醫療機構應當采取更為先進的數據加密技術,對AI醫療機器人臨床應用中收集并存儲的數據進行加密處理,定期更新算法密鑰。同時,針對敏感醫療數據定期進行脫敏,防止發生數據泄露風險。此外,還應當對數據傳輸通道進行安全認證,防止被人為篡改。第二,建立健全身份認證機制。AI醫療機器人依據醫務人員的指令做出相關決策,包括對患者數據的調取和利用,因此醫療機構應當采取多因素認證的方式確保只有授權的醫務人員才能訪問敏感的醫療數據以及輸入相關指令。第三,對數據安全定期審計與風險評估。通過審計可以核實出AI醫療機器人算法系統中存在的安全漏洞和不足,及時采取措施進行修復和改進,通過風險評估識別和量化AI醫療機器人潛在的安全風險,為制定安全策略和資源分配提供依據。第四,完善數據備份與快速恢復機制。數據是AI醫療機器人運行的基礎,為了防止其在診療過程中突發數據丟失或系統故障導致診療過程陷入停滯,定期的醫療數據備份和快速恢復機制是確保診療過程連續性的關鍵。第五,建立完善的數據安全事件應對機制。在發生數據泄露或其他安全事件時,能夠及時采取措施,減輕損害,并按照法規要求向相關部門和個人報告。
3.3.2 保障患者信息權益。AI醫療技術的臨床應用很大程度上影響著患者個人信息權益,患者對自身病情的知情權以及對治療方案的選擇權往往難以得到實現。AI醫療機器人所帶來的“技術黑箱”和“技術歧視”導致新的法益糾紛出現,AI醫療技術為醫療提質增效的同時絕不能忽視患者個人信息權益的保障。第一,保障患者知情權和同意權。AI醫療機器人對患者健康數據的采集必須患者知情且經過其同意,包括收集患者敏感個人信息的目的、范圍、用途等方面。第二,保障算法解釋權的實現。算法解釋權是指被決策人有權要求算法決策的使用者保證決策過程的透明度,且告知其對個人權益有重大影響的相關決定。醫療機構以及醫務人員有義務在診療前應患者的要求履行解釋說明義務,確保醫療算法的可信度。此外,在賦予患者算法解釋權的同時也賦予患者可以一并請求AI醫療機器人在做出重大決策的過程中再運行或再決策,最大化減少對患者個人信息權益的損害。第三,保障患者算法決策拒絕權的實現。算法決策拒絕權是指被決策者有權拒絕僅通過算法決策做出的決定。這一權利的實現既有助于推動醫務人員履行算法解釋說明義務,增強醫務人員與患者之間的信賴度,更重要的是實現患者個人信息權益的保障。算法解釋權和算法決策拒絕權并非為了建立個體對數據的絕對控制,而是實現算法公開透明化保障個體知情權、同意權等各項信息權益實現的有效路徑。
來源:《中國醫院》雜志2024年第10期
作者:徐偉琨、沈春悅
單位:暨南大學法學院/知識產權學院、上海交通大學醫學院附屬瑞金醫院
(參考文獻略)
上一篇: 張雷:醫療機構安全運營的新思考