摘要 目的/意义 探讨生成式人工智能(generative artificial intelligence,GAI)在提升我国基层医疗服务能力方面的潜力、风险以及治理策略。方法/过程 通过文献综述、现状分析、实证列举等方法,分析GAI在基层医疗领域的应用潜力,从可靠性、医患沟通、语言障碍等方面探讨其应用于基层医疗的挑战。结果/结论 应采取构建高质量GAI数据平台、加强算法规范法治建设、深化医疗风险与伦理监管、鼓励公众参与、促进跨领域合作等策略,以实现GAI对基层医疗服务的有效赋能,提升整体医疗服务水平。
关键词:
生成式人工智能
基层医疗应用
风险
治理策略
当前我国基层医疗机构面临挑战,整体服务效果有限,亟待探寻创新解决方案。近年来,人工智能领域发展迅速,医疗与人工智能结合成为具有潜力的发展方向。尤其是以ChatGPT为代表的生成式人工智能(generative artificial intelligence,GAI),可应用于人机对话、文书写作、医学资料翻译、报告生成和校验等领域。研究 [1] 显示,ChatGPT在美国执业医师资格考试(United States medical licensing examination,USMLE)中表现出色,正确率达到90%,展现了相当水平的医学知识与实践能力。政策方面,我国已出台一系列支持政策,如《最高人民法院关于规范和加强人工智能司法应用的意见》 [2] 、《科技伦理审查办法(试行)》 [3] 、《生成式人工智能服务管理暂行办法》 [4] ,旨在规范和推动新一代人工智能应用。然而,GAI在提升医疗服务能力方面体现巨大潜力的同时,仍存在局限性,应注意其在医学伦理、数据安全、责任追究以及隐私保护等方面潜在的风险与挑战。
GAI是人工智能的一个分支,能够根据已学内容创造新内容。2022年OpenAI公司发布ChatGPT,标志着GAI在文本生成领域实现重大突破 [5] 。此后,该技术迅速向多模态和具身化方向拓展,尤其在图像生成领域取得显著成就,视频和音频生成技术也得到相应发展,为虚拟现实和元宇宙构建开辟新路径,同时在医疗行业中展现出广泛应用潜力。随着GAI技术的普及,其生成内容的质量与特性备受学术界关注。施亦龙等 [6] 运用内容分析法,探讨ChatGPT答复与人工问答在内外部特征、情感认知等方面的异同。郭鑫斐等 [7] 利用TF-IDF和Doc2Vec,对ChatGPT生成的论文引言与人类撰写的论文引言进行深入对比分析。在文本主题建模中,BERTopic凭借BERT词向量、Transformer及c-TF-IDF技术,构建高效精准主题集群,优于隐含狄利克雷分布等传统模型,成为首选工具。王浩伟等 [8] 运用BERTopic模型分析人工智能生成内容与用户生成内容主题差异,并探讨健康信息学研究现状与发展。此外,Freeman K等 [9] 研究指出,优化提示词工程可提升GAI输出准确性与回复质量。
随着分级诊疗制度的深入实施,基层医疗体系的重要性愈发突显。然而,该变革也进一步导致了基层医生的工作负担加重,且受制于我国医疗资源分布不均衡,基层医疗机构在发展空间和服务能力方面面临着诸多限制,难以满足人民群众日益增长且多样化的医疗健康需求。在此背景下,GAI技术的引入有助于提升基层医疗服务能力。
GAI能够全面整合患者历史医疗记录,包括检查结果、家族史及症状等信息,并进行细致分类,为基层医生提供快速而精准的患者病情评估和治疗需求分析。同时,还能协助基层医生识别患者症状,提供有针对性的诊断清单和治疗建议,确保诊疗过程的全面和准确 [10] 。此外,GAI能够根据患者病史和相关疾病治疗指南为基层医生推荐更有效的药物或治疗方案,降低不良反应风险。应注意的是,GAI仅为辅助工具,基层医生在诊疗过程中仍需结合自身临床经验和专业知识进行综合判断,以达到最佳诊疗效果。
GAI能够为基层医生提供便捷高效的医疗文书撰写智能辅助,可根据需求将医生与患者之间的沟通记录、医疗检查详细说明、医嘱等内容迅速自动生成文案 [11] 。该功能在一定程度上减轻了基层医生的工作负担,让基层医生能够有更多时间用于直接照顾患者,提升诊疗效率与患者满意度。通过GAI的辅助,基层医生可以更专注于对患者的治疗与关怀,提供更高效的医疗服务。
基层医生可借助GAI先进智能工具对高血压、糖尿病等慢性病患者进行远程随访,确保及时追踪患者健康状况变化。GAI不仅能够协助医生迅速回应患者疑问,还能根据每位患者的具体状况和需求,提供量身定制的生活方式建议。此外,基层医生还可以通过GAI提醒患者服药时间 [12] ,并详细解释药物可能带来的不良反应及药物间的相互作用,从而有效增强患者的治疗依从性,使远程医疗关怀更加贴心与高效。
GAI通过算法模型不断学习,能够简化复杂的医疗术语和处方,使患者更容易理解自身疾病状况和治疗方案。对于患者经常提出的问题,GAI也能给出专业解答,大大提升患者获取医疗信息的便利性。目前,许多医疗机构都设有医患沟通群,经过训练的GAI医疗智能客服能够在这些沟通群中发挥重要作用,为患者提供及时、高效且耐心的医疗问题解答支持。此外,GAI还可以作为虚拟医疗助手 [13] ,结合患者病史、当前症状等信息提供个性化建议和咨询。
GAI虽能提供丰富信息与诊疗建议,但其真实性验证存在局限性,可能导致传播虚假医疗信息,误导患者并危害健康,对医疗体系造成负面影响。中国信息通信研究院李亚宁等 [14] 曾质疑GAI运作机制,指出ChatGPT等系统未公开合成机制及数据来源,存在侵权风险。在海量信息中,GAI如果缺乏严格审核,易传播错误数据,加剧无效信息泛滥。Temsah M H等 [15] 研究显示,ChatGPT回答虽合理,但可能存在医学概念错误及预防措施缺乏实证依据等问题,需警惕其潜在误导性。韩伟鹏等 [16] 研究两款中国主流大语言模型在儿童哮喘问题解答方面的表现,发现各模型在不同问题上的准确性、理解力、逻辑性等均存在不足。OpenAI公司 [17] 相关论文表示,ChatGPT数据源自Common Crawl、Web Text、维基百科及书籍数据库等,虽能处理未训练内容并生成新文本,但专业性难以保证。医疗领域对信息的专业性与准确性要求极高,非专业用户易受其误导。因此,尽管GAI为基层医生提供了快速信息支持,但在提供专业护理、制定治疗方案等关键环节,仍无法替代医生。对于ChatGPT在医疗等领域的应用应保持高度警惕,防止其随意性对患者健康造成危害。
在医学实践中,“人文关怀”至关重要,要求医生在诊疗过程中展现对患者的尊重、同情、安慰与深切关怀。患者询问病情时,不仅需要医学解答,更需要获得心理慰藉与支持。医生的回应不仅是知识传递,更是建立信任的情感桥梁。尽管人工智能在情感分析方面取得了进展,能识别并模拟情感表达,但仍受限于技术逻辑,缺乏真正的情感共鸣 [18] 。对比医生与GAI的回应,医生首先展现关怀与安抚,而GAI则倾向于直接面对现实,其“善解人意”更多是基于语言模型的礼貌性回应,缺乏个性化和深度理解。因此,在医疗领域,GAI不具备“懂得”与“理解”患者深层次感受的能力,无法全面替代医生。
目前,GAI所支持的语言种类相对有限 [19] ,因此可能会对使用方言等非支持语言的医生和患者带来一定困扰。此外,GAI的思维和语言能力本质上是一种计算机程序,而非真正的人类认知与理解。这意味着,GAI可能无法准确理解中英文或东西方文化间的微妙差异。这种局限性容易导致误解或误导,影响医学知识的普及。
对患者信息严格保密是医患信任的重要基础。然而,GAI隐私政策并未明确提及与欧盟《通用数据保护条例》等类似的数据保护法规内容 [20] ,这引发了关于数据用途透明度的疑虑。在欧盟法规中,个人拥有要求删除其个人数据的权利,即所谓的“被遗忘权”或“删除权”。但GAI等模型在训练过程中使用的个人信息及使用痕迹数据难以完全删除,增加了患者个人隐私泄漏的风险。此外,作为开放式平台,GAI需要将医疗健康数据传输至其系统进行训练和交互,且目前尚未提供私有化部署版本。基层医疗机构将敏感医疗健康数据传输给GAI的过程中存在数据泄漏风险。因此,在使用GAI等模型时,基层医疗机构须严格管理数据安全,注意隐私保护。
伦理方面,GAI算法训练所依赖的大规模、高质量数据主要来源于互联网,其中掺杂各种存在偏见与误导性的信息。一旦应用偏见性信息 [21] ,可能导致特定疾病患者群受到忽视与边缘化,从而加剧健康领域的不公平现象。法律方面,当GAI的诊疗建议导致患者受到伤害时,责任归属复杂而模糊。目前,多数国家或地区的法律尚未对GAI问责做出明确界定,也未明确传统医疗产品的问责制度是否适用于GAI。尽管部分地区将医疗软件视为医疗设备,但开发商可能通过将其定义为服务而非产品来规避法律责任,导致患者在受到侵害时难以获得应有赔偿。因此,在推动GAI等人工智能技术在基层医疗领域应用的同时,也要深入思考和解决其带来的伦理与法律问题。
大规模且高质量的数据,对于提升GAI技术性能至关重要,应建立高质量数据平台。一方面,积极倡导医疗机构、研究机构和相关单位开展数据共享与协作,以形成更为广泛、多样化的数据集,为各类GAI训练提供更加丰富的素材。另一方面,要制定明确的医疗数据共享规则与标准,确保数据的统一性、可比性和安全性,激励各方积极参与共享数据,助力GAI技术不断优化。
为了有效遏制智能医疗算法权力异化现象,必须依托法律法规的坚实支撑。包括借鉴国际先进经验,在医疗算法权力约束方面制定相应规范,确立GAI算法自动化决策的解释权,并实施“内部自查与外部审查”相结合的规制机制,以加强算法问责。同时,立法机关在赋予数据主体相应权利时,应确保公平理念贯穿智能医疗算法研发的始终。此外,立法机关和相关部门可从伦理、技术和法律3个层面出发,构建公平可信的GAI医疗算法治理环境,形成多层次监管体系,提升用户对智能算法的掌控能力 [22] 。在伦理规范方面,应将伦理原则与法律要求相结合,明确GAI医疗算法技术研发者的道德和法律责任,形成责任化的伦理机制。在法律规范层面,需确立医疗GAI算法基本标准,以增强技术的可靠性和稳定性。在技术管理层面,应根据伦理规范和法律要求设计算法监管方案,有效监管GAI医疗算法权力的行使。
国家监管部门应强化风险意识,开展全面风险防范,采取多主体协作策略,保障患者健康。监管应前移至事先预防,构建风险预防与救济闭环。智能医疗算法收集信息应遵守最低限度原则,滥用即预警并救济。立法需优化监管主体,政府、企业、社会共治以降低风险。建立风险审查机制及分层防治体系,针对算法特性进行风险评估。医疗机构应评估GAI应用风险,确保伦理合规,为基层医疗健康发展提供保障。
为了推动GAI在基层卫生服务能力提升中的应用,应引导公众广泛参与。基层医疗管理者可以积极组织公众研讨会,认真倾听来自社会各界的意见和建议,推动公众加深对GAI应用的了解,为GAI在基层医疗服务中广泛应用和持续改进奠定坚实基础。
基层医疗行业管理者应主动与人工智能技术领域专家和研究机构建立紧密合作伙伴关系,携手研究探索GAI在基层医疗领域的潜在应用。通过深度合作与交流,共同面对并解决技术、伦理及法律等多方面问题,推动GAI在基层医疗领域的可持续发展与广泛应用,从而不断提升基层卫生服务能力,造福更多患者。
GAI虽然具备诸多能力,但仍存在局限,包括面对处理感受、感知以及共情等低级智慧任务时,GAI需要消耗巨大计算资源且难以产生共情等。在医患沟通过程中,情感交流和信任建立是不可或缺的环节,对建立稳固的医患关系至关重要。在实际医疗决策中,患者个人意愿和医生丰富经验同样重要。但上述关键要素是GAI无法通过单纯语言训练完全掌握的。此外GAI所提供的医学答案,掺杂着虚假或误导性信息,因此使用GAI进行医疗咨询仍然面临技术和伦理方面的多重挑战。基层医疗行业管理者应以审慎和负责任的态度对待 GAI在医疗领域的应用,采取适当措施确保其应用符合伦理原则和法律规定,以充分发挥 GAI的潜力,提升医疗卫生服务能力,为公众提供安全可靠的高质量医疗卫生服务。
作者贡献 :史森中负责论文撰写与修订;刘相花负责文献收集与整理;聂瑞负责文献检索、论文修订;张莉负责数据分析与解释;杜振伟负责提供指导、项目管理。