在医疗保健体系全面“拥抱AI”的当下,一股隐秘却迅速蔓延的力量,正悄悄改变着临床一线的工作方式——那就是未经机构批准的“影子人工智能”。最新一项针对500多名医院及医疗系统员工的权威调查显示:超过40%的受访者知晓同事在使用未获组织授权的AI工具,近20%的医务人员坦言自己也曾直接使用。它们帮助医生、护士和管理者提升效率,却也在患者安全与数据隐私的阴影下高速成长。
一、“影子AI”在医院里有多普遍?
所谓“影子AI”(Shadow AI),是指未经过医疗机构正式评估、备案或纳入治理体系,却被个人私下使用的各类人工智能应用,如通用聊天机器人、在线翻译润色工具、第三方医学知识问答软件、智能文档生成工具等。
调查显示:
– 超过40%的受访者表示,知道身边同事使用此类工具协助撰写病程记录、优化查房汇报、翻译文献或总结指南要点;
– 近20%的从业者坦承自己曾直接使用未授权AI工具,部分甚至接触过以AI为核心功能的第三方医疗应用,而这些产品未经过院内信息科或伦理委员会的正式评估。
受访者中既包括一线医生、护士,也包括信息管理、运营管理和质量控制等岗位,说明“影子AI”渗透的不仅是临床决策环节,还包括排班、物资管理、患者沟通、科研写作等多个场景。
二、为什么医护人员离不开这些“影子工具”?
从动机看,“影子AI”并非出于恶意,而是现实压力下的一种“自救”。调查结果表明:
1. 提升工作效率是首要原因
– 52%的管理者和45%的医疗服务提供者(医生、护士等)将“显著提高效率”列为使用未授权AI的首要动机。
– 在临床一线,医生需要处理大量重复性文书和知识检索工作:书写病历、出院小结、病情沟通单、科研汇报、学术文章等。AI能够在初稿撰写、结构梳理、语言优化方面节省大量时间。
2. 功能优势与“缺位”的官方替代品
– 40%的管理者和27%的提供者表示,之所以选择“影子AI”,是因为现有获批工具功能有限、体验不佳,难以满足临床复杂需求。
– 不少医院尚处在AI试点早期,院内正式部署的系统往往聚焦单一场景(如影像辅助诊断、语音病历录入等),而通用型大模型工具在跨场景写作、语言整理、知识整合方面更灵活、上手更快。
3. 好奇心与“试一试”的探索心理
– 超过四分之一的一线医护人员(25%)承认出于好奇与学习目的尝试使用,10%的管理者亦持类似心态。
– 许多人将其视作了解新技术的入口:先在非敏感场景试用,如整理学术笔记、翻译指南,再逐步扩展至与临床相关的文本处理。
三、对患者安全与数据隐私的三重隐患
虽然“影子AI”提高了个人工作效率,却在医疗安全和合规层面埋下了明显隐患。专家指出,至少存在三方面风险:
1. 诊疗信息可能被“悄悄带出院外系统”
– 未授权的AI工具大多运行在院外公有云或第三方服务器上,如果医护人员将病历内容、患者检查结果、影像描述等直接输入这些工具,就有可能突破院内既有的隐私保护和数据分级管控规则。
– 对于包含身份证号、住址、联系方式、病情细节等敏感信息的文本,由AI平台不当留存、训练或泄露,都可能给患者隐私带来长期不可逆的风险。
2. AI输出信息有误,谁来为后果负责?
– 大模型工具存在“看起来很专业,但结论其实不对”的典型特点,一旦医护人员在高压工作状态下过度信任AI建议,可能影响临床决策质量,甚至直接威胁患者安全。
– 调查中,约四分之一的医护和管理者将“患者安全”列为AI在医疗场景中的首要风险。一旦因“影子AI”生成的内容被不当采信导致诊疗错误,现有制度难以追溯:
– 医疗机构并不知晓该工具被使用过;
– AI生产商未在医疗场景建立规范的风险说明与责任边界;
– 监管部门也难以界定事故责任主体。
3. 医疗系统整体暴露在更高的网络安全风险之下
– 未经评估的工具可能存在代码漏洞、恶意组件或不安全的数据存储方案,一旦医护人员在院内终端频繁访问,将增加医院信息系统遭受网络攻击、勒索软件侵袭或大规模数据泄露的概率。
– 医疗机构掌握大量高价值健康数据,又属于“关键基础服务”,一旦信息系统被攻破,不仅关系患者隐私,更可能影响急诊手术安排、ICU监护等核心业务的连续性。
四、AI治理“认知断层”:七成一线人员不了解本院AI政策
调查显示,在AI治理方面,医疗机构与一线医护之间存在明显“认知断层”:
– 虽然不少大型医疗集团已开始制定AI相关原则和制度,但真正深入一线的比例并不高;
– 仅有少数提供者能清晰说出本机构的AI使用红线、数据可用范围和报备流程。
更值得警惕的是,很多医护人员仅对“AI病历记录员”“语音转写系统”等单一工具有印象,却误以为已了解所有AI政策,而对更广泛的生成式AI、第三方应用、科研辅助工具等缺乏规则意识。这意味着,真实的“影子AI”规模很可能被低估。
五、如何从“影子AI”走向“阳光AI”?
要把这股已经存在且难以逆转的力量,从隐蔽、失控状态引导到安全、可控的发展轨道,需要在制度、技术与文化层面同步发力。
1. 机构层面的系统治理:从“禁止”走向“分级管理”
– 明确哪些场景可在严格脱敏前提下使用通用AI(如公共科普文案、院内宣传、部分科研材料初稿);
– 明确哪些场景必须使用经过认证的医疗专用AI平台(如临床决策支持、药物推荐、风险评估等);
– 对含有患者身份标识和敏感健康信息的数据输入,设置“绝对禁入”边界,形成清晰、可操作的院级制度。
2. 建立AI工具准入与评估机制
– 医院信息部门或数字医疗中心应牵头建立AI工具的评估流程:对数据安全、算法来源、供应商合规、临床适用性等进行综合审查;
– 对通过评估的工具,纳入正式应用目录,并通过统一入口提供给医护人员使用,减少其“自谋出路”的冲动。
3. 提升一线医护的AI素养与风险意识
– 定期对医护人员开展AI基础认知与安全使用培训,让大家明确:
– 哪些信息绝不能输入公共AI;
– 如何识别AI“似是而非”的输出;
– 在任何情况下,AI都只能作为“辅助决策”,不能替代临床责任主体。
– 鼓励医护在AI使用中保留“人类最后一关”的批判性思考,不做“无条件相信屏幕结果”的执行者。
4. 行业与监管层面的规则完善
– 在国家与地区层面,应加快AI医疗相关立法:
– 明确AI产品在医疗使用中的责任边界与分级监管要求;
– 建立AI医疗产品备案、评估与持续监测机制;
– 对涉及跨境数据传输和二次训练的AI平台设置更严的合规门槛。
– 对已经大规模部署的AI决策辅助系统,则需持续评估其有效性与安全性,避免“黑箱算法”长期介入临床而缺乏独立验证。
六、AI在医疗中的正确角色:被看见、被规范、被善用
尽管“影子AI”引发担忧,但从调查与实践看,人工智能在医疗健康领域的巨大潜能毋庸置疑:
– 在临床决策辅助方面,AI可以快速整合指南、文献与病历,帮助医生更全面地审视病情;
– 在行政管理与文书处理中,AI能大幅减轻重复劳动,让医护把更多时间还给患者;
– 在患者教育与随访管理中,AI可提供标准化、可理解的健康解释,提升沟通效率。
关键不在于“要不要用AI”,而在于“用什么AI”“怎么用AI”“谁为AI的决策结果负责”。当AI从“影子”走向“阳光”,从个人自发使用转向系统治理与透明评估,医疗机构才能真正把这项技术,从潜在风险源,转化为提升患者安全和诊疗质量的长期助力。