首页
>
资讯
>
业界积极反馈 FDA 药品 AI 和医疗器械 AI 指南草案
出自识林
业界积极反馈 FDA 药品 AI 和医疗器械 AI 指南草案
2025-05-09
2025年1月,FDA分别针对药品和医疗器械 发布了里程碑AI 指南征求意见,《使用AI支持药品和生物制品监管决策的考量》 和《AI驱动的器械软件功能:生命周期管理和上市申报建议》 ,已收到制药行业百余份反馈意见。
各类AI技术正在深入药品和医疗器械企业的方方面面,AI监管也势在必行 ,FDA这两份指南的修订与落地颇受关注,全球业界的代表性意见可供我国药业参考。
药品与AI:基于风险,术语统一,模型特异风险,AI供应商责任
对FDA将不影响患者安全、药品质量或研究可靠性的AI模型排除在指南之外的决定(例如用于药物发现或撰写申报资料),美国制药研究与制造商协会(PhRMA)表示认同,但进一步要求FDA明确指出此类AI模型不在其监管权限范围内。
PhRMA指出,不同类型的AI模型具有不同的自主性水平,因此,FDA在应用建议时应更具针对性,而不是对所有AI模型采用统一方法。此外,PhRMA建议FDA在草案指南中纳入其他关键术语的定义,如验证(validation)、联邦学习(federated learning)、锁定数据(locked data)和基于机器的系统(machine-based systems),并确保与FDA其他指南及FDA数字健康与AI术语表 中的定义保持一致。
关键路径研究所(CPI)询问FDA将如何使用该指南来评估生成式AI(generative AI,即ChatGPT和DeepSeek采用的技术),并要求对FDA提出的AI模型风险矩阵进行进一步澄清。此外,CPI还要求对处理缺失和超出范围(out of bounds,OOB)数据的方式进行说明。CPI建议指南进一步澄清模型开发过程中模型的稳定性/敏感性,以及使用外部数据进行预训练时与AI建模相关的风险。
Duke Margolis健康政策研究所指出需要澄清的领域是风险类型。目前对风险的定义比较宽泛,示例主要强调了对患者的潜在风险,而不是对支持监管决策的信息的潜在风险。FDA澄清应评估哪些类型的风险,或提供额外的示例,以进一步展示如何应用多维度、基于风险的框架。
生物技术行业组织(BIO)要求FDA明确该指南如何与其他监管框架(如GCP 和GMP )相协调。同时建议指南应明确适用于广泛的AI衍生输出(例如生物标志物 、终点和诊断工具),但对于被认为几乎没有风险的AI模型不应被要求提交可信度评估计划(credibility assessment plan,CAP)和可信度评估报告(credibility assessment report,CAR)。BIO特别指出,药企面临的问题在于经常使用第三方AI供应商开发、训练和维护申请人研究中使用的AI模型,而企业本身并不拥有或完全访问这些AI模型。FDA应明确申请人 可以获取其认为适当的、有助于其监管决策的信息的机制,同时保护任何第三方的专有信息。
医疗器械与AI:模型差异化监管,生命周期 ,上市后监测机制
美国先进医疗技术协会(AdvaMed)呼吁FDA避免采用“一刀切”的AI监管建议。AdvaMed指出,AI医疗器械在复杂性和风险方面存在显著差异,监管期望应反映这些差异。如果采用僵化的统一方法,可能会对低风险AI应用和简单技术施加过多负担并造成混淆,同时无法在最需要的地方提供有意义的监管。AdvaMed建议修订指南的范围,专注于深度学习或深度神经网络,排除那些较不复杂的AI模型。
美国医疗器械制造商协会(MDMA)也同意AdvaMed的观点,认为指南的范围应缩小到更复杂的AI系统,以符合FDA的“最小负担”原则,并确保基于风险的监管方法。MDMA指出,指南中的许多建议对较不复杂的AI模型并不适用,建议FDA修订草案,以更好地适应不同复杂程度的AI器械。MDMA还建议,针对简单AI模型(如线性回归和决策树)的监管要求,现有的《器械软件功能上市前申报内容》 指南更为合适。
组合产品联盟(Combination Products Coalition,CPC)指出,指南遗漏了关于产品生命周期的重要信息。CPC建议最终指南应明确哪些部分适用于医疗器械制造商必须遵守的内部流程,还建议FDA在申报要求中给出更具体要求,分别针对以医疗器械 为主导的组合产品和以生物制品 为主导的组合产品。
美国放射学会(American College of Radiology,ACR)建议指南应补充上市后监测要求。该学会指出,指南FDA的草案鼓励但不要求上市后监测作为TPLC风险控制措施,具体的上市后监测机制(如定期报告或第三方审计 )未明确说明。
识林-实木
识林® 版权所有,未经许可不得转载
必读岗位及工作建议:
RA(注册) :需熟悉AI设备软件功能的生命周期管理及市场提交建议,以确保注册文件符合FDA要求。QA(质量管理) :应理解AI设备软件的质量管理要求,以确保产品合规。研发 :需掌握AI技术在设备软件中的应用,以指导研发流程。适用范围: 本文适用于使用人工智能技术的设备软件功能,涉及化学药和生物制品,针对创新药和仿制药,由FDA发布,适用于Biotech和大型药企。
文件要点总结:
生命周期管理: 明确了AI设备软件功能在生命周期各阶段的管理要求,强调了持续监控和更新的重要性。市场提交建议: 规定了AI设备软件功能市场提交的资料要求,包括算法变更的详细描述和验证。数据安全与隐私: 特别强调了在AI设备软件功能中保护患者数据安全和隐私的重要性。算法变更控制: 详细描述了算法变更的控制流程,包括变更的识别、评估和实施。临床评估要求: 鼓励对AI设备软件功能进行临床评估,以确保其安全性和有效性。以上仅为部分要点,请阅读原文,深入理解监管要求。
适用岗位:
RA(注册) :必读,需理解AI在药品和生物制品注册决策中的应用和要求。R&D(研发) :必读,应掌握AI技术在药品和生物制品研发中的应用指导。QA(质量管理) :必读,了解AI技术如何影响质量管理和合规性。工作建议:
RA:评估现有注册流程中AI技术的适用性,确保符合FDA的最新指导。 R&D:在研发过程中考虑AI技术的整合,提高效率和准确性。 QA:监控AI技术在质量管理中的应用,确保符合监管要求。 适用范围: 本文适用于化学药和生物制品,包括创新药和仿制药,由FDA发布,主要针对跨国药企、大型药企以及Biotech公司。
文件要点:
AI技术应用: 明确了AI技术在药品和生物制品监管决策中的潜在应用,强调了其在提高决策效率和准确性方面的重要性。数据治理: 强调了在使用AI技术时,必须确保数据的质量和治理,以支持有效的监管决策。透明度和可解释性: 特别强调了AI模型的透明度和可解释性,要求企业能够解释AI决策过程。风险管理: 提出了对AI技术相关风险的管理要求,包括对算法偏差和错误结果的识别和控制。监管互动: 鼓励企业与FDA进行沟通,以确保AI技术的应用符合监管要求。以上仅为部分要点,请阅读原文,深入理解监管要求。