近日,工业和信息化部、国家发展改革委、教育部、科技部、农业农村部、国家卫生健康委、中国人民银行、国家网信办、中国科学院、中国科协等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》,成文日期为2026年3月20日,并明确自印发之日起施行。文件围绕人工智能科技伦理审查的适用范围、实施主体、工作程序、专家复核、应急审查和监督管理作出系统规定。
从医院角度看,这份文件虽然不是专门针对医疗行业出台的数据管理办法,但对医院人工智能项目的研发、验证、转化和应用影响非常直接。原因很明确:文件将医疗卫生机构与高校、科研机构、企业并列,作为人工智能科技伦理审查管理的责任主体之一,并明确鼓励医疗卫生机构参与人工智能科技伦理标准制定、审查研究、教育培训和人才培养。也就是说,医院今后不仅是AI技术的使用方,也被正式纳入人工智能科技伦理治理体系的重要实施主体。

一、这份办法传递出的第一个信号:医院做AI,不能只讲技术效果,还要先过伦理关
办法规定,凡是在我国境内开展、可能在人之尊严、公共秩序、生命健康、生态环境、可持续发展等方面带来科技伦理风险挑战的人工智能科学研究、技术开发等活动,都属于适用范围。对医院来说,这意味着凡是涉及患者生命健康、医疗决策、健康风险识别、行为影响、心理情绪干预等场景的AI项目,原则上都不能只从“模型准不准、系统好不好用”来评价,还要同步判断是否存在科技伦理风险。
放到医院日常场景里,这个变化非常现实。比如,影像辅助诊断模型、病历生成与质控模型、急诊分诊模型、慢病风险预测模型、智能随访系统、精神心理评估系统、患者行为干预系统、医患语音分析系统等,未来都不能只按科研项目或信息化项目推进,而需要从项目立项阶段就嵌入伦理审查意识。
二、第二个信号:医院将被要求建立自己的人工智能科技伦理审查机制
办法明确提出,从事人工智能科技活动的高校、科研机构、医疗卫生机构、企业等,是本单位人工智能科技伦理审查管理的责任主体,应按照《科技伦理审查办法(试行)》有关要求设立人工智能科技伦理委员会;委员会组成应包括人工智能技术、应用、伦理、法律等相应专业背景专家。
这对医院意味着什么?意味着今后医疗AI项目不能再仅由信息科、科研部或临床科室单线推进,而要逐步形成一种更完整的内部治理结构:业务部门提出需求,技术团队形成方案,数据与安全团队评估风险,伦理委员会作出审查意见,必要时再进入专家复核或后续跟踪审查。换句话说,医院AI治理将从“项目管理”走向“制度治理”。
三、第三个信号:不是所有项目都一刀切,但医院要先学会识别“哪些项目必须审”
办法要求,人工智能科技活动负责人应向本单位委员会提出申请;单位未设立委员会,或委员会无法胜任审查工作的,可以委托服务中心开展伦理审查。申请材料至少要包括三类内容:一是项目方案,包括算法机制、数据来源与获取方式、测试评估方法、预期应用领域和适用人群等;二是科技伦理风险评估情况、防控和应急预案;三是遵守人工智能科技伦理和科研诚信要求的承诺书。
这说明,今后医院做AI,单靠“技术方案”和“科研设计书”已经不够,还要补上一份真正像样的伦理风险说明书。特别是数据从哪里来、是否涉及敏感人群、模型会不会产生偏见歧视、临床上是否可解释、出了问题谁负责、发生异常时怎么中止和纠偏,这些问题都要提前回答。
四、对医院最有操作意义的,是这六个审查重点
办法明确,人工智能科技伦理审查重点关注六个方面:人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护。
对医院来说,这六项几乎就是未来医疗AI项目的“合规检查表”。
第一,人类福祉,核心是项目是否真正有医学价值和社会价值,是否对患者有益,而不是单纯追求技术展示。第二,公平公正,核心是训练数据和模型设计是否会对不同年龄、性别、疾病类型、地区人群产生系统性偏差。第三,可控可信,核心是临床人员能不能理解、控制和干预模型输出,系统在极端情况下会不会失稳。第四,透明可解释,核心是医院能不能向医生、患者、管理者说清楚模型用途、运行逻辑和潜在风险。第五,责任可追溯,核心是数据、算法、模型、系统全链路有没有日志和责任记录。第六,隐私保护,核心是训练、测试、部署、调用全过程中患者信息是否得到充分保护。
这六条放到医院里,几乎每一条都直指现实问题:有没有偏向某类患者?能不能解释误判原因?医生是否被模型“绑架”?出了差错追不追得到?训练数据是否合规脱敏?这些都不是附加题,而会越来越成为AI项目能不能落地的前置条件。
五、医院要特别注意:有些高风险AI项目,还不只是内部审查,还要走专家复核
办法建立了专家复核程序,并附有“需要开展科技伦理专家复核的人工智能科技活动清单”。目前纳入清单的主要有三类:一是对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统研发;二是具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统研发;三是面向存在安全、人身健康风险等场景、具有高度自主能力的自动化决策系统研发。
对医院而言,第一类和第三类尤其值得重视。比如,直接影响患者心理情绪、认知判断或治疗行为的AI系统,或者在高风险医疗场景中具备较高自主决策能力的系统,就很可能触及专家复核边界。也就是说,未来某些医疗AI项目即使通过了院内初审,也不一定就能直接推进,还可能需要报请主管部门组织专家复核。
六、这份办法不只是“审一次就完”,而是要求持续跟踪
办法规定,委员会或服务中心一般应在受理后30日内作出批准、修改后再审或不予批准决定;已批准项目还要进行跟踪审查,一般间隔不超过12个月;纳入专家复核清单的项目,跟踪审查间隔一般不超过6个月。项目负责人还应及时识别科技伦理风险变化并报告,必要时审查机构可以作出暂停或终止决定。
这对医院管理的启示很明确:人工智能伦理审查不是一次性盖章动作,而是一个动态管理过程。模型上线后如果数据源变了、适用人群扩大了、用途从科研转向临床了、系统自主性增强了,原来的审查意见可能就不够了,甚至需要重新启动审查。
七、从医院实践看,这份文件真正改变的是AI项目的立项逻辑
过去一些医院做AI,往往是“先立项、先建模型、先试运行,后面再补规范”。这份办法出来后,更合理的路径会变成:先识别是否属于人工智能科技活动伦理审查范围,再准备项目方案和风险评估,再进入伦理审查,再组织研发测试和场景验证,最后再进入转化应用。
这将直接影响医院的科研管理、信息化管理和成果转化管理。科研部门不能只看课题申报书,信息部门不能只看系统方案,伦理委员会不能只关注传统医学伦理,法务与合规部门也不能只在合同阶段介入。医院需要逐步建立一套覆盖“立项—研发—测试—部署—跟踪”的人工智能合规治理链路。
八、医院下一步最值得优先做的几件事
从落实角度看,医院可以优先推进五件事。
第一,尽快梳理本院当前所有AI相关项目,区分科研探索类、辅助决策类、流程优化类、患者交互类和高风险临床应用类,先做一轮项目盘点。第二,结合本院伦理委员会和信息化治理体系,评估是否需要建立专门的人工智能科技伦理审查机制,或者补充人工智能、法律、伦理、临床应用等专业委员。第三,形成医院版AI项目审查材料模板,至少包括项目说明、数据来源说明、伦理风险评估、隐私保护安排、应急处置预案。第四,对高风险场景建立分级管理规则,尤其是直接影响患者健康、安全、心理和行为的系统。第五,把日志留存、模型说明、人工干预、持续监测等要求写进项目建设和采购条款。上述要求都能从办法的实施主体、申请材料、六项审查重点和跟踪审查机制中找到直接依据。
结语
总体来看,《人工智能科技伦理审查与服务办法(试行)》释放出的政策信号非常清晰:人工智能项目不能只看技术创新速度,还必须同步满足伦理审查、风险防控和责任追溯要求。 对医院来说,这不是单纯增加一套程序,而是在倒逼医疗AI从“能不能做”走向“能不能负责任地做”。未来,谁能更早把人工智能科技伦理审查机制嵌入医院治理体系,谁就更有可能把医疗AI真正做稳、做深、做成。
文末金句:
医疗AI的竞争,最终比拼的不只是模型能力,更是医院把技术创新纳入伦理治理和责任治理的能力。