李明:ChatGPT在醫療領域的應用及其挑戰概述
人工智能ChatGPT悄然來襲,其強大的語言生成能力讓許多行業為之興奮。那它對醫療健康領域又將帶來什么影響呢?我們一起來看看!
ChatGPT自2022年11月發布以來,在醫療領域引起了眾多人士的廣泛關注,很多學者也積極探索ChatGPT在醫療領域應用的實踐。媒體很多報道集中在臨床應用、患者溝通和醫學教育等一些場景的應用上,本文從當前學術研究的視角看ChatGPT在醫療領域的實際應用。結合ChatGPT在科研寫作、醫療教育、臨床研究和實踐中的應用前景及相關問題,探討其優勢與局限性。
ChatGPT在醫療領域的應用優勢
ChatGPT作為一種先進的人工智能聊天機器人,在醫療和學術領域有著廣泛的應用前景。
(1)學術/科學寫作應用
超過一半的研究文獻特別強調了ChatGPT在學術和科學寫作方面的潛在優勢。醫學寫作不僅僅局限于科學論文的創作,它涵蓋了從檢查報告、監管文件、患者教育材料到臨床實驗方案等各種基于文本的交流。此外還可以將醫學文章翻譯成多種語言。ChatGPT的訓練方法是基于人類反饋的強化學習,其中包括篩選和標記文本。這種技術允許機器根據人類評估者的輸入調整其行為。因此,ChatGPT在理解用戶意圖、人類的生成式文本以及保持文本連貫性方面表現出色。
經過醫學寫作訓練的ChatGPT可以根據作者的指示為文檔生成初稿,從而為醫學作者提供初步的寫作支持。之后,作者可以審查和編輯這些生成的文本,確保其準確性和清晰度。此外,ChatGPT還可以自動化審查和編輯流程,為多個審稿人提供文檔的反饋和建議,從而提高寫作效率。
ChatGPT的這些功能不僅提高了研究的質量,還為研究者節省了大量時間。對于那些非英語為母語的作者,ChatGPT提供了一個便捷的英文寫作工具,幫助他們克服語言障礙,更加流暢地進行學術交流。但值得注意的是,盡管ChatGPT在寫作方面提供了很大的幫助,最終的文檔仍然需要經過人類的審查和判斷,以確保其質量和準確性。
(2)在科學研究應用
ChatGPT已經在科學研究領域被認為是一種高效且有潛力的工具,特別是在進行全面的文獻綜述和生成計算機代碼時。這種工具為研究人員節省了大量時間,特別是在那些需要深入思考的研究過程中,例如流行病學研究和實驗設計。
在流行病學研究中,STROBE指南被廣泛采用。這些指南為報告研究的各個方面提供了明確的建議,如研究設計、參與者的選擇、暴露和結果的測量,以及結果的分析和解釋。意大利的研究者利用STROBE檢查表作為基礎,為ChatGPT制定了問題。他們讓ChatGPT將STROBE清單的每一項轉化為具體的問題或提示。接著,ChatGPT回答這些問題,為流行病學研究提供了有力的支持。領域專家隨后評估了ChatGPT對每個提示的回答,特別是其連貫性和相關性。結果顯示,ChatGPT在連貫性上的平均得分為3.6(滿分5.0),在相關性上的平均得分為3.3(滿分5.0),這表明ChatGPT為流行病學研究提供了有價值的支持。
此外,ChatGPT在處理大數據,如電子健康記錄或基因組數據時顯示出其高效性。這意味著科學家們可以將更多的時間用于思考和設計實驗,而不是被復雜的數據分析所困擾。在藥物設計和發現方面,ChatGPT也展現出了巨大的潛力,有望加速藥物研發的進程。
(3)臨床實踐上的研究
從臨床實踐的角度看,多數研究者對ChatGPT的臨床應用持相對謹慎的態度。然而,ChatGPT在簡化臨床工作流程方面展現出了巨大的潛力,這不僅可能幫助醫療機構節省成本,還能提高工作效率。例如,ChatGPT能夠自動生成高效的出院小結,從而減輕醫生的文書工作負擔。
在放射學領域實踐上,ChatGPT的答案與美國放射學會(ACR)關于乳房疼痛和乳腺癌篩查的適當性標準進行了比對。在開放式(OE)提示格式中,ChatGPT被要求推薦最合適的單一成像程序;而在選擇所有適用(SATA)格式中,ChatGPT則提供了一個待評估的成像模式列表。根據評分標準,ChatGPT的建議是否與ACR指南相符進行了評估。對于乳腺癌篩查,ChatGPT的OE平均得分為1.83(滿分2分),SATA的平均正確率為88.9%;而對于乳房疼痛,OE的平均得分為1.125,SATA的平均正確率為58.3%。這些數據驗證了ChatGPT在放射學決策中的應用潛力,它有助于優化臨床工作流程并更加負責任地利用放射學服務。
此外,ChatGPT在提高個性化醫療服務方面也展現出了其優勢。它能夠為患者提供易于理解的健康信息,提高他們的健康知識素養。ChatGPT能夠根據具體的問題提供定制化的答案,并依據最新的研究和指南為醫療決策提供基于AI的建議。這意味著,醫務人員無需逐篇查閱相關指南和研究,就可以快速獲取AI總結和提煉的關鍵信息。
總的來說,ChatGPT為醫療行業帶來了新的視角和工具。它不僅可以幫助醫生更準確地預測疾病的風險和結果,為患者提供更加個性化的治療方案,還可以優化診斷和記錄流程。對于那些日常工作繁重的護士,ChatGPT則可以成為他們的得力助手,幫助他們簡化工作流程,提高工作效率。
(4)在醫學教育方面的應用
在醫學教育領域,ChatGPT同樣展現了巨大的潛力,逐漸成為醫學教育的重要輔助工具。ChatGPT 已經通過一些國家執業醫師的考試比如美國的 USMSL,在幫助醫學生學習和復習時確實顯示出了其價值。ChatGPT能夠生成準確且廣泛的臨床教育內容,為學生提供個性化的學習體驗,并在小組學習中發揮助教的作用。其個性化的交互方式極大地增強了自主學習的能力,同時還能為醫學生提供職業溝通技巧的指導和培訓,使醫學教育更加全面。
例如,在眼科檢查的研究中,Antaki等人發現ChatGPT的表現與初級住院醫師的水平相當。這意味著,通過特定的預訓練,我們可以進一步為眼科醫生提供更加專業化的培訓,從而提高他們在眼科子專業中的技能和知識。
總的來說,ChatGPT為醫學教育帶來了新的機會和挑戰,未來在這一領域還有很大的發展空間。
ChatGPT醫療應用潛在的局限性和風險
我們必須認識到,ChatGPT是雙刃劍,不可忽視其局限性與潛在的風險。法律角度上,人工智能生成的內容應用于商業目的時須注意不侵犯版權,人類作者必須確定人工智能生成的文本符合相關法規和法律。
需要指出的是,當前版本的ChatGPT在醫療應用各種測試中僅取得了“中等”或“及格”的性能,并且對于實際臨床部署不可靠,因為它本身最初不是設計用于臨床應用的,所以ChatGPT在醫療領域應用中仍有一定的局限性。但是,在醫學數據集上訓練的專業NLP模型仍然代表了臨床應用的主導方向。
根據目前文獻研究,大部分提到了與道德和倫理有關的問題,其中包括偏見風險(30.0%)、抄襲風險(30.0%)和數據隱私及安全問題(23.3%)。這些問題不僅限于道德層面,還涉及到實際應用中可能出現的多種風險,如不準確信息的傳播(33.3%)、引用不當(16.7%)和透明度不足(16.7%)。此外,還有一些法律問題(11.7%)和關于使用過時信息(10.0%)的擔憂。更有甚者,一些研究還提到了誤傳風險(8.3%)、內容過于詳細(8.3%)、版權問題(6.7%)和缺乏原創性(6.7%)。
Sallam M. Healthcare (Basel). 2023 Mar 19;11(6):887.
筆者實際測試過程中,發現ChatGPT可以提供看上去極為真實的參考文獻,但實際不存在,主要根源是 ChatGPT根據上下文的內容推測生成?,F在提交SCI論文時,大部分期刊要求注明是否借鑒了AIGC工具協助創作。
ChatGPT應用規范建議
綜合當前文獻的研究結論,筆者提出了ChatGPT的應用規范的原則建議。
研究透明性:研究人員在使用ChatGPT時,應全面披露其在研究中的應用,并對生成的內容進行嚴格校驗,確保其原創性和可信度。
醫療應用的補充性:醫務人員在使用ChatGPT時,應當明確內容的局限性,將ChatGPT提供的內容作為其專業判斷的補充,而非替代。
醫學教育策略:醫學教育工作者在使用ChatGPT時,應調整教學策略,防止其被用于不正當目的,如作弊,并應更加注重培養學生的批判性思維能力。
出版和審查機制:出版界應建立有效的審查機制,以識別和管理由ChatGPT生成的內容,確保學術的誠信和質量。
道德和監管規范:應制定相應的道德和監管規范,加強對ChatGPT及類似工具的管理,確保其安全、負責任的應用。
持續評估和研究:鑒于ChatGPT及類似工具的快速發展,我們需要持續進行影響評估和風險研究,以適應不斷變化的技術環境。
作者資格的明確:根據現有的科學論文作者資格標準,ChatGPT并不符合作為作者的資格。因此,任何由其生成的內容都應當被明確標注,并由真實的作者進行監督和審查。
ChatGPT與醫療領域的交匯,為我們打開了一個充滿無限可能的新世界, 具有推動醫療進步的重要意義,但同時也伴隨著一系列的挑戰。為了確保其在醫療領域的負責任和有效應用,我們必須正視這些挑戰,建立相應的道德和監管規范,并持續進行影響評估和風險研究。同時需要保持開放和審慎的態度,繼續積極而負責任地推動醫療技術創新,ChatGPT才能真正為醫療領域帶來革命性的變革,并為更多的患者帶來福音。
參考文獻:
1.Kitamura, F.C. ChatGPT Is Shaping the Future of Medical Writing but Still Requires Human Judgment. Radiology 2023, 230171.
2.Shen Y, Heacock L, Elias J, Hentel KD, Reig B, Shih G, Moy L. ChatGPT and Other Large Language Models Are Double-edged Swords. Radiology. 2023 Apr;307(2):e230163. doi: 10.1148/radiol.230163. Epub 2023 Jan 26. PMID: 36700838.
3.Shen Y, Heacock L, Elias J, Hentel KD, Reig B, Shih G, Moy L. ChatGPT and Other Large Language Models Are Double-edged Swords. Radiology. 2023 Apr;307(2):e230163. doi: 10.1148/radiol.230163. Epub 2023 Jan 26. PMID: 36700838.
4.Rao A, Kim J, Kamineni M, Pang M, Lie W, Succi MD. Evaluating ChatGPT as an Adjunct for Radiologic Decision-Making. medRxiv [Preprint]. 2023 Feb 7:2023.02.02.23285399.doi: 10.1101/2023.02.02.23285399. Update in: J Am Coll Radiol. 2023 Jun 21;: PMID: 36798292; PMCID: PMC9934725.
5.Ahn C. Exploring ChatGPT for information of cardiopulmonary resuscitation. Resuscitation. 2023 Apr;185:109729. doi: 10.1016/j.resuscitation.2023.109729. Epub 2023 Feb 10. PMID: 36773836.
6.Antaki, F.; Touma, S.; Milad, D.; El-Khoury, J.; Duval, R. Evaluating the Performance of ChatGPT in Ophthalmology: An Analysis.
7.Khan, A.; Jawaid, M.; Khan, A.; Sajjad, M. ChatGPT-Reshaping medical education and clinical management. Pak. J. Med. Sci.2023, 39, 605–607.
8.Benoit, J. ChatGPT for Clinical Vignette Generation, Revision, and Evaluation. medRxiv 2023, Preprint.
上一篇: 視頻科普:如何保護醫療數據安全
下一篇: 朱洪濤:醫院網絡安全常見問題及應用對策