)
来源:中国医药报
人工智能技术在医疗器械领域的应用对传统的监管体系提出了巨大挑战,中国、美国和欧盟作为全球主要医疗器械市场,都面临如何应对不断涌现的人工智能医疗器械的监管需求。比如,如何有效评估人工智能医疗器械安全性和有效性,如何确保医疗数据安全和隐私保护,如何提高人工智能医疗器械算法透明度和可解释性等。
为应对人工智能医疗器械带来的新挑战,监管部门需要通过深入开展监管科学研究,不断学习和调整监管策略,在保护公众健康的同时推动创新。同时,全球监管机构应共享监管经验和资源,以更好地应对全球性挑战,共同推动人工智能医疗器械产业健康发展。
□ 李安渝
(资料图)
近年来,人工智能技术在医疗器械领域的应用快速扩大,在改变诊断和治疗方式的同时,也带来安全风险,给监管带来挑战。
人工智能技术存在伦理、偏见、数字安全等风险,人工智能医疗器械因其特殊的应用场景,还存在操作、迭代、透明度等额外安全风险。此外,人工智能医疗器械在责任界定、法律地位等方面还存在监管空白,极大影响了人工智能医疗器械行业发展和产品的临床应用。
2019年以来,全球各大医疗器械市场的监管部门纷纷基于监管科学研究,加大对人工智能医疗器械的管理力度。其中,美国、欧盟提出多项监管策略并在实践中应用,取得了一些成果;我国对人工智能医用软件、人工智能医疗器械中的计算机学习建模等制定技术指南,积极开展人工智医疗器械审评与监管改革工作。
美国:在控制风险的同时鼓励创新
美国食品药品管理局(FDA)积极推动人工智能医疗器械监管创新。目前,FDA正在试图建立更灵活和高效的预认证程序,以加快对人工智能医疗器械的评估和审批;同时,加强对已上市人工智能医疗器械的持续监管,确保其使用过程中的安全性和有效性。
FDA对医疗器械的基本监管策略是在确保患者安全的同时鼓励创新。基于此,FDA实行上市前批准(PMA)和510(k)清除程序,以确保医疗器械的安全性和有效性。同时,FDA提供创新途径,如突破性器械计划就是鼓励医疗器械技术创新的途径。目前,FDA已经批准一些使用人工智能技术的医疗器械上市,涉及多种临床应用场景,如疾病诊断、病情评估、个性化治疗等。
面对人工智能技术带来的监管挑战,FDA建立了人工智能医疗器械监管框架。2019年,FDA发布涉及人工智能医疗器械监管的蓝皮书,提出一种预定型监管框架,即对人工智能医疗器械的持续学习和自我改进能力进行监管。根据该框架,制造商需要提交算法更改计划,说明如何实施预定的修改,并在实施修改时保持医疗器械的安全性和有效性。同时,FDA正在加强对人工智能训练数据的监管。人工智能的训练数据质量对相应医疗器械性能影响重大,FDA提出,制造商需要提供足够的信息,以证明训练数据的质量和代表性,以及数据收集和处理过程。这对于确保人工智能医疗器械在实际临床环境中的安全性和有效性至关重要。
考虑到人工智能技术的特殊性,FDA还提出了针对人工智能医疗器械的特别监管要求。人工智能算法通常具有自我学习和自我改进能力,使得人工智能医疗器械可能会在上市后发生改变,因此FDA强调对产品上市后性能进行持续监测和管理;人工智能系统的决策过程有时缺乏透明度,可能导致患者和医生无法理解其决策依据,因此FDA强调人工智能医疗器械的透明度和可解释性。
目前,FDA面临的主要挑战之一是如何适应人工智能技术的快速发展。全球性对话和合作既可以避免重复工作,还可以达到更好的监管一致性,FDA在人工智能医疗器械全球监管协同方面作出积极努力。例如,FDA是国际医疗器械监管机构论坛(IMDRF)成员,IMDRF正在研究人工智能技术在医疗器械领域的应用,并提出相关监管建议。
随着人工智能技术的进步和医疗器械的快速创新,FDA的监管策略和框架将持续发展和调整。一个可能的发展方向是更加积极地利用数字健康技术进行监管,例如使用真实世界数据开展医疗器械性能实时监测和评估。此外,FDA还可能更注重对人工智能训练数据以及医疗器械透明度和可解释性的监管。
总体来说,FDA对人工智能医疗器械的监管是一个动态的风险控制与创新的平衡过程,努力控制各种安全风险;同时,尽可能鼓励创新,从而适应人工智能医疗器械技术和市场发展。
欧盟:强调数据保护和算法透明性
在欧洲,医疗器械及其所涵盖技术受到严格监管。欧盟全方位审查和监控人工智能医疗器械设计、制造、销售和使用,特别关注医疗数据保护,积极推动人工智能医疗器械标准化,提高其互操作性和可用性。
欧盟的医疗器械监管基于一系列法规,其中最重要的是医疗器械法规(MDR)和体外诊断医疗器械法规(I VDR)。这些法规对医疗器械安全性和性能提出了详细要求,包括产品设计、制造、临床评估、质量管理等。人工智能医疗器械作为软件或系统,通常被归类为“软件医疗器械”,在MDR和IVDR中有明确规定。根据相关规定,人工智能医疗器械应满足包括数据保护、算法验证、性能评估等在内的一系列要求。
在欧盟,人工智能医疗器械的监管强度根据产品风险级别不同而不同。根据MDR和IVDR,医疗器械风险从低到高分为四个等级,分别为Ⅰ、Ⅱa、Ⅱb和Ⅲ。人工智能医疗器械风险等级取决于预期用途和可能产生的风险。例如,如果人工智能医疗器械被用于诊断或治疗重大疾病,则可能被分类为较高风险等级。高风险等级的医疗器械需要经过更严格的审查才能上市,包括通过被欧盟认证的独立机构(称为公认机构)进行的临床评估。
欧盟对人工智能医疗器械的审批流程包括技术文件编制、临床评估、质量管理系统评审等步骤。制造商需要提供详细的信息,证明产品的安全性和性能,包括设计和制造信息、临床评价数据、风险管理措施等。在审批过程中,公认机构会评估制造商提供的所有信息,如果评审结果为“满意”,将颁发CE标志证书,表示该医疗器械符合欧盟法规要求,可以在欧盟市场销售。
在欧盟监管框架中,人工智能医疗器械的数据保护和算法透明性受到特别关注。欧盟的一般数据保护法规(GDPR)对处理个人数据提出了严格要求,对人工智能医疗器械的开发和应用产生了重要影响。此外,制造商需要提供足够的信息,以说明其人工智能系统的决策过程,使用户和监管部门可以理解和验证算法的性能和结果。这在保护用户权益、提高算法公平性和可信赖性方面起着关键作用。
面对人工智能技术的快速发展,欧盟正在调整和更新其医疗器械监管框架。2021年,欧盟发布了人工智能法规草案,旨在建立“人本主义”的人工智能监管框架,强调对高风险人工智能系统的监管。此外,欧盟还在考虑建立专门针对人工智能医疗器械的监管路径,以适应产品特点和监管挑战。
欧盟在人工智能医疗器械领域的监管措施反映了其对公众健康和数据安全的重视,也体现出支持创新和技术进步的态度。
中国:积极探索和推进监管改革
近年来,我国药监部门积极探索和推进人工智能医疗器械监管改革,努力建立更公平、透明、灵活的监管框架。我国对人工智能医疗器械研发、生产、销售和使用全过程实施监管,以确保产品安全性、有效性、质量可控性。此外,为加强医疗数据保护,我国还制定了详细的医疗数据收集、使用和存储规定。
2019年7月,人工智能医疗器械创新合作平台成立,旨在促进人工智能医疗器械监管研究;国家药监局医疗器械技术审评中心在全球率先发布《深度学习辅助决策医疗器械软件审评要点》,明确人工智能医疗器械审评关注重点,引发国际广泛关注。2020年以来,我国加大力度开展人工智能医疗器械监管研究,积极参与IMDRF人工智能医疗器械工作组、国际电信联盟/世界卫生组织医学人工智能焦点组等国际监管协调工作;制定和发布多项相关指导原则、审评要点和行业标准,批准20余项第三类深度学习辅助决策类独立软件产品上市。
建议:持续更新监管策略和手段
建议根据我国情况并参考国际经验,从以下几方面强化人工智能医疗器械监管,在保障公众用械安全的同时鼓励创新。
建立专门针对人工智能医疗器械的监管框架。人工智能技术在医疗器械领域的应用对传统的医疗器械监管体系提出了巨大挑战。人工智能医疗器械与传统医疗器械具有显著区别,尤其体现在持续学习和适应能力上,因此需要建立适应人工智能医疗器械特性的监管框架。可参考欧盟和美国对高风险人工智能系统的分类和监管策略,制定我国人工智能医疗器械风险评估方法和分类标准,对不同风险级别的产品制定不同的监管策略。现阶段,建议继续推进重点产品相关技术指导原则和审评要点的制修订工作,紧跟人工智能医疗器械发展趋势,不断建立健全技术指导原则体系。
实施适应性监管。人工智能技术发展迅速,监管政策需要及时应对技术变化。监管部门可以采取适应性监管策略,如预见性监管和沙箱试验等,在保障公众用械安全的同时鼓励技术创新。
强化数据保护和算法透明度。数据安全和隐私保护是人工智能医疗器械监管的重要方面,应确保产品在收集和使用患者数据时遵循严格的数据保护规定。同时,人工智能系统的决策过程应该透明,以便医务人员、患者和监管人员理解和产生信任,这不仅有助于保障人工智能医疗器械质量安全,还可以提高产品公信力。
鼓励合作和标准制定。与行业、科研机构以及其他国家和地区监管机构建立广泛的合作关系,是推动我国人工智能医疗器械监管发展的途径之一。这种合作可以促进分享实践经验,发展和推广技术和标准,以及制定全球通用的监管策略。
提升科学监管能力。鉴于人工智能技术的复杂性和快速发展的现状,监管部门需要持续提升自身技术能力,这样才能有效应对人工智能医疗器械监管挑战。这需要加强监管科学研究,加强人才引进和培养,并与科研机构和行业建立紧密的合作关系。
加强产品上市后监管和监测。人工智能医疗器械上市后可不断学习和改进,监管部门需加强产品上市后监管。一方面,可以通过定期审查和评估,确保人工智能医疗器械的持续安全性和有效性;另一方面,通过上市后监测,可以快速发现和应对潜在风险。此外,建议充分利用真实世界数据,客观评价人工智能医疗器械的算法泛化能力,助力实现产品全生命周期闭环监管。
鼓励用户教育和培训。人工智能医疗器械的正确使用对保证其安全性和有效性至关重要,应鼓励制造商提供适当的用户培训和教育,以确保使用者正确理解和使用产品。
建立伦理和社会影响评估机制。人工智能医疗器械可能带来一系列伦理和社会问题,如数据隐私、算法偏见和人机责任等,监管部门应建立伦理和社会影响评估机制,识别、讨论和处理上述问题。
(作者单位:四川大学医疗器械监管科学研究院)
标签: