研究认为,在此基础上,使用AI驱动的系统会加剧责任分配的复杂性。这种复杂性一方面来自于AI开发者的加入,另一方面则体现在AI算法可以独立预测和确定试验过程中的个性化剂量。这一决策过程和结果缺少人类监督,从而增加了整套系统的输入/输出之间的不确定性。研究者将这种情况表述为DCT进行中的“责任分散化(Diffusion of Responsibilities)”——源自多方参与(申办者,受试者,研究者,设备供应商,AI算法开发人员),与多重技术系统(AI算法,数字健康技术设备)。
AI 依赖受试者提供的远程数据进行剂量调整,但研究人员无法直接验证数据准确性,受试者也难以保证设备正常运作。
AI 算法的决策透明度有限,申办者既难以理解其推荐逻辑,也无法干预潜在错误。
专家建议,在责任划分时,应充分识别这种“知识与控制(knowledge & control,可理解为信息透明度和干预能力)”的风险,并建立针对 AI 透明度和数据可靠性的监管机制。
第三步,建立沟通和协调机制:通过责任图谱明确分工后,申办者需要组织高效的分工来落实分工。专家建议申办者应推动AI算法开发人员、技术供应商和临床研究者定期共享信息,明确责任边界,并及时调整 AI 推荐算法或试验方案以应对数据质量和患者安全问题。此外,申办者也需提供更便捷的反馈系统,让患者能够快速报告不良事件或技术问题,并在紧急情况下迅速获得研究人员支持。
该研究依托的 Trials@Home 和 Hypermarker 项目,分别聚焦去中心化临床试验标准的建立与 AI 个体化精准用药的开发,也因此关注 AI 与 DCT 所引发的伦理和监管挑战。Trial@Home由欧盟和欧洲制药工业协会(EFPIA)合作的资金项目支持,Hypermarker则受欧盟直接资金支持。因此,虽然该研究仅代表专家立场,但其为DCT申办者提供的责任管理方案,也代表了欧盟在推动试验数字化和 AI 医疗结合方面的一次探索。