替换
查找内容:
替换为:
全部替换
插入链接
链接网址:
链接显示标题:
请选择网址类型
点我插入链接
插入文件
文件名称:
文件显示标题:
请选择文件类型
点我插入文件
发现错误 发表观点

原文内容

反馈意见

提交 正在提交..... 反馈历史

复制下面的地址分享给好友

确定 正在提交.....
train

你好,

关闭
提交 重做 重新开始 关闭
跳转
  • 新建同级
  • 新建子级
  • 删除
  • 重命名
选择收藏夹
新建收藏夹
公开

取消 确定

1. 基本信息
姓名:
企业:
职位:
联系方式:
邮箱:
2. 请在此填写您的问题,我们将优先安排答疑
提交

报名成功!
课程观看链接如下:
请添加课程助理微信,获得更多信息:
确认
确定
取消 确认

识林

  • 知识
  • 视频
  • 社区
  • 政策法规
    • 国内药监
    • FDA
    • EU
    • PIC/S
    • WHO
    • ICH
    • MHRA
    • PMDA
    • TGA
  • 研发注册
    • 概览
    • 监管动态
    • 研究专题
  • 生产质量
    • 概览
    • 监管动态
    • 各国GMP
    • 中国GMP
    • 中国GMP指南
    • GMP对比
    • 检查缺陷
    • 研究专题
  • 主题词库
  • 帮助中心
  • 关于识林
    • 识林介绍
    • 识林FAQs
    • 功能介绍
    • 团队诊断
    • 联系我们
  • 30天免登录

    忘记密码?

AI 参与临床试验、申报资料和偏差调查,要告诉药监局吗?

首页 > 资讯 > AI 参与临床试验、申报资料和偏差调查,要告诉药监局吗?

页面比对

出自识林

AI 参与临床试验、申报资料和偏差调查,要告诉药监局吗?
页面比对
笔记

2025-03-24

跳转到: 导航, 搜索
*题图来自网络

年初DeepSeek流量爆发以来,各行各业“接入”蔚然成风,医药行业也不例外。据报道,短期内就有上百家医疗机构接入DeepSeek,且其中多为地方龙头医院。药企方面,最早是网上流出恒瑞红头文件要求全公司范围内开展DeepSeek应用工作,随后信达、君实等药企也纷纷公布自家AI项目(本文AI均指基于大语言模型的AI)。这其中也有识林AI项目团队的参与。

医疗和医药均是众所周知的高度监管行业,AI热潮的背后,不可避免的一个话题就是监管。近日,一项发表在JAMA Network Open上的研究《患者对于AI起草的电子信息回复偏好的伦理考量》(Ethics in Patient Preferences for AI-Drafted Responses to Electronic Messages)揭示了AI在医院应用中的挑战,联想到我国刚刚发布的AI标识管理办法,以及FDA在1月份发布的首个制药AI指南,药企可考虑为即将到来的AI监管做好准备。

一旦得知AI参与,患者满意度下降,与其质量无关

近年来,患者通过电子门户向医生发送消息的数量不断增加,这给医生带来了巨大的工作负担。为缓解这一问题,美国许多医院就尝试使用AI技术来生成消息回复。

研究团队在杜克大学卫生系统的患者咨询委员会中开展了一项调查研究,共有2511名成员参与,其中1455人完成了调查。参与者被随机分配到不同的实验场景中,分别评估了消息的严重性(如常规药物续订请求、药物副作用问题以及影像学检查发现恶性肿瘤的可能性)、作者身份(AI或人类医生)以及是否披露来源信息(AI、人类医生或不披露)对患者满意度的影响。

研究结果显示:

  • AI撰写的回复更受青睐:研究发现,患者对AI撰写的回复的整体满意度、信息有用性以及感受到的关怀程度均高于人类撰写的回复。具体而言,AI撰写的回复在满意度上平均高出0.30分(满分5分),在信息有用性上高出0.28分,在感受到的关怀程度上高出0.43分。
  • 消息严重性不影响偏好:研究还发现,无论消息的严重性如何(从常规药物续订到潜在的恶性肿瘤),患者对AI撰写的回复的偏好并未因消息的严重性而改变。
  • 披露AI使用会降低满意度:尽管患者对AI撰写的回复本身较为满意,但当明确告知他们回复是由AI生成时,满意度会略有下降。研究显示,与披露是人类医生作者相比,披露AI的满意度平均下降了0.13分;与不披露相比,披露AI的满意度平均下降了0.09分。(见下图)

研究结果揭示了一个伦理困境:尽管患者对AI撰写的回复本身较为满意,但患者可能更倾向于认为消息是由人类医生撰写的,且对AI的介入感到不安。然而,从伦理角度来看,患者有权知道他们所接收的信息是由AI生成的,这关系到患者的自主权和知情权。

研究者指出,尽管披露AI使用可能会导致患者满意度略有下降,但这不应成为阻碍披露的理由。研究中,患者最倾向于接受的披露方式是:“此消息由医生在自动化工具的支持下撰写。”这种简短的披露方式强调了人类专家的主导,既能尊重患者的知情权,又不会因过多的技术细节而让他们感到困惑。

披露只是基本要求,重要的是AI该如何取信于药监

从上述医疗AI应用的研究中,制药行业需要考虑的第一个问题是披露。但可想而知,披露是未来AI合规的基本要求。3月15日,国家互联网信息办公室发布《人工智能生成合成内容标识办法》,旨在规范人工智能生成合成内容的标识,自2025年9月1日起施行。所以药企首先面临的问题在于,到底哪些流程和文件需要向监管部门披露AI的参与,哪些又不需要?

第二个启示在于,之所以出现上述研究结论,其本质是人类目前还无法完全信任AI,这不仅仅是出于某种“歧视”,也是基于日常使用AI处理专业工作时发现的种种问题,典型的例如“AI幻觉”。那么AI该如何取信于人类?从药品监管角度看,AI不但要取信于药企,还要取信于药监。

迄今为止最具参考价值的答案在1月份FDA 发布的《使用人工智能支持药品和生物制品监管决策的考量》指南草案中。作为全球主要监管机构对AI监管的最新考量,涵盖广泛的AI技术,并且为企业提出了具体可执行的AI应用评估框架。

该指南草案中,提出可信度(credibility)概念,定义是通过收集可信度证据而建立的对AI模型在特定使用场景(context of Use, COU)中的信任。COU则明确了AI模型用于解决特定问题时的具体角色和范围。AI模型的可信度评估应与模型风险相称,并针对特定的COU进行调整,以确保AI模型输出在监管决策中的适用且可靠。

指南草案中,FDA提出了一个“七步走”的可信度评估框架,指导企业评估AI模型的可信度,其中实操的关键在于第3和第4步。

第1步:定义感兴趣的问题(question of interest)

第2步:定义AI模型的使用场景

第3步:评估AI模型风险

此处模型风险由模型影响和决策后果两个因素决定。模型影响指AI模型提供的证据相对于其他证据的贡献程度,即是否单独用于某项决策,且无其他信息配合;决策后果描述因错误决策导致的不利结果的重要性,这个因素完全与AI技术独立开来,仅考虑对药品安全、有效和质量的影响。这个双因素模型简明扼要,避开对复杂AI技术的探讨,将评估重点聚焦于决策的过程和影响。

第4步:制定建立AI模型可信度的计划

FDA要求企业对AI模型开展技术层面的评估,其维度与其他监管机构类似,重点在数据和训练。尽管基于大语言模型的AI是众所周知的“黑箱”,FDA还是针对模型测试提出了相当具体的要求。

该计划需详细描述模型及其开发过程,包括模型的输入、输出、架构、特征及其选择过程、模型参数等,并解释选择特定建模方法的理由。同时,要详细说明用于开发模型的数据集,涵盖数据的收集、处理、标注、存储、控制和使用情况,确保数据相关且可靠,即包含关键数据元素、具备足够代表性,且准确、完整、可追溯。此外,还需描述模型的训练过程,包括学习方法、评估模型性能的指标、防止过拟合或欠拟合的技术、训练超参数等,并说明是否使用了预训练模型以及模型的校准情况。

在模型评估方面,要说明测试数据的收集、处理、标注、存储、控制和使用情况,确保测试数据独立于开发数据,以准确评估AI模型的性能。同时,需描述测试数据对使用场景的适用性,考虑数据漂移现象,即开发数据与部署环境中遇到的数据可能不同,导致模型性能变化。还要描述模型预测与观测数据之间的一致性,解释选择的模型评估方法的理由,提供用于评估模型的性能指标,并包括置信区间。此外,要说明模型预测不确定性和置信水平的估计过程,以及任何其他量化置信度或不确定性的描述或指标,描述建模方法的局限性,包括潜在的偏差,并详细说明代码验证的质量保证和控制程序。

第5步:执行计划

第6步:记录可信度评估计划的结果并讨论偏差

第7步:确定AI模型对使用场景的适用性

此外值得一提的是,该指南以对药品的安全、有效和质量的影响为标准,明确不涵盖以下两类AI应用:药物发现阶段的AI应用;用于提高操作效率(如内部工作流程、资源分配、起草/撰写申报资料)的AI应用。可见FDA认为这些应用场景对患者安全、药品质量影响风险较低。

识林-实木

识林®版权所有,未经许可不得转载

适用岗位:

  • RA(注册):必读,需理解AI在药品和生物制品注册决策中的应用和要求。
  • R&D(研发):必读,应掌握AI技术在药品和生物制品研发中的应用指导。
  • QA(质量管理):必读,了解AI技术如何影响质量管理和合规性。

工作建议:

  • RA:评估现有注册流程中AI技术的适用性,确保符合FDA的最新指导。
  • R&D:在研发过程中考虑AI技术的整合,提高效率和准确性。
  • QA:监控AI技术在质量管理中的应用,确保符合监管要求。

适用范围:
本文适用于化学药和生物制品,包括创新药和仿制药,由FDA发布,主要针对跨国药企、大型药企以及Biotech公司。

文件要点:

  1. AI技术应用: 明确了AI技术在药品和生物制品监管决策中的潜在应用,强调了其在提高决策效率和准确性方面的重要性。
  2. 数据治理: 强调了在使用AI技术时,必须确保数据的质量和治理,以支持有效的监管决策。
  3. 透明度和可解释性: 特别强调了AI模型的透明度和可解释性,要求企业能够解释AI决策过程。
  4. 风险管理: 提出了对AI技术相关风险的管理要求,包括对算法偏差和错误结果的识别和控制。
  5. 监管互动: 鼓励企业与FDA进行沟通,以确保AI技术的应用符合监管要求。

以上仅为部分要点,请阅读原文,深入理解监管要求。

适用岗位及工作建议:

  • 互联网信息服务提供者(ISP):必读。应严格按照《人工智能生成合成内容标识办法》对生成合成内容进行显式和隐式标识,确保用户能够明显感知到内容的合成性质。
  • 网络信息内容传播服务提供者:必读。在传播内容时,需核验隐式标识,并在发布内容周边添加显著提示标识,提醒公众内容的合成性质。

适用范围:
本文适用于在中国境内提供网络信息服务的提供者,包括但不限于文本、图片、音频、视频和虚拟场景等人工智能生成合成内容的标识活动,适用于互联网信息服务算法推荐、深度合成管理规定和生成式人工智能服务管理暂行办法规定情形的服务提供者。

文件要点总结:
《人工智能生成合成内容标识办法》旨在规范人工智能生成合成内容的标识,保护公民、法人和其他组织的合法权益,维护社会公共利益。文件明确了显式和隐式标识的要求,包括在不同媒介中添加标识的具体位置和方式。服务提供者需在生成合成内容的文件元数据中添加隐式标识,并鼓励使用数字水印等技术。此外,文件要求服务提供者在用户服务协议中明确标识方法和样式,并在用户发布内容时主动声明和使用标识功能。违反标识办法的行为将受到相关主管部门的依法处理。该办法自2025年9月1日起施行,为服务提供者和用户提供了明确的指导和规范。

以上仅为部分要点,请阅读原文,深入理解监管要求。

取自“https://login.shilinx.com/wiki/index.php?title=AI_%E5%8F%82%E4%B8%8E%E4%B8%B4%E5%BA%8A%E8%AF%95%E9%AA%8C%E3%80%81%E7%94%B3%E6%8A%A5%E8%B5%84%E6%96%99%E5%92%8C%E5%81%8F%E5%B7%AE%E8%B0%83%E6%9F%A5%EF%BC%8C%E8%A6%81%E5%91%8A%E8%AF%89%E8%8D%AF%E7%9B%91%E5%B1%80%E5%90%97%EF%BC%9F”
上一页: 国内药政每周导读:GMP_无菌附录,试验数据保护,集采注射液_GMP_违规,CDE_年度审评报告发布,国务院中药政策
下一页: 人工智能与监管科学研讨会实录
相关内容
热点新闻
  • ICH 发布新 Q1 稳定性指南...
  • 【直播】25年4月全球法规月报...
  • 【识林新文章】中国无菌附录对...
  • VHP(过氧化氢蒸汽)的“脆弱...
  • 【识林新工具】AI知识助手,AI...

 反馈意见

Copyright ©2011-2025 shilinx.com All Rights Reserved.
识林网站版权所有 京ICP备12018650号-2 (京)网药械信息备字(2022)第00078号
请登录APP查看
打开APP