医疗人工智能的法治化规制

2025-02-18 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制

  人工智能应用于医疗,对推动医疗行业高质量发展具有划时代意义,同时也引发了伦理风险和法律规制难题。科学技术越是发展,越容易创造出与人们价值观念相违背的社会事实,从而彰显了事实与价值冲突时法律规范的重要性。尽管古代也有科学技术,但当时对法律予以介入和规范的要求较低。随着科技发展,事实与价值的冲突愈加明显,出现了科技伦理、科技法律等新概念,伦理审查成为法律对科技进行规范的重要内容。技术之道必然引起法律之治,尤其是对于医疗领域而言。医疗对科学技术发展具有较强依赖性,并涉及人的生命和基因等重要伦理问题。医疗技术发展必须以伦理为导向,并接受法律的规范。

  技术之道是关于“真”的是否做到的问题,法律之治是关于“当”的能否这样做的问题。法律之治的“当”是针对技术之道的“真”作出判断的。技术产生社会事实,社会事实都是有价值判断的,而法律规范是价值对事实的统合。所以科学技术越发达,技术之道越先进,越需要法律之治的规范。例如,20世纪已有克隆羊技术,克隆人与克隆羊之间并不存在难以逾越的技术鸿沟,但前者会对伦理造成强烈冲击,所以各国立法禁止克隆人,这就是法律之治对于技术之道的前置性规范。医疗的技术之道只要涉及伦理问题,必然涉及法律问题。即使不涉及伦理问题,在生命健康和权益保障相关事项上也常涉及法律问题。对于医疗人工智能的发展和规制而言,以法律之治规范技术之道至关重要。

  医疗人工智能的技术之道

  医疗人工智能技术融合了人工智能技术与专业医疗知识,在提升医疗水平、提高重病治愈率、提升高难度手术成功率、保障医疗诊断准确率、加强医疗服务质量、优化医疗资源配置等方面,相对于单纯的人工操作具有巨大优势。医疗人工智能绝不是“人工”和“智能”的简单相加,而是倍数相乘。医疗人工智能实现了“人工”的设计和操作的可分离性,传统医疗的“人工”就是指医生的操作,而医疗人工智能的“人工”主要是指医疗程序的设计,医生对人工智能的操作虽然仍然重要,却不及设计的重要性,且难度大为降低。

  在医疗人工智能的技术之道上,机器学习是技术体系的核心。其中,监督学习侧重于精准构建疾病诊断模型,无监督学习侧重于挖掘医疗数据中的隐藏模式与内在结构以便及早发现疾病,强化学习通过优化决策而在医疗治疗方案规划中发挥关键作用,深度学习是机器学习的高级形式,即机器已经具备深度神经网络架构而可以自动提取医疗影像等数据,大大提高医疗诊断精准度。此外,医疗人工智能所发展的知识图谱技术可以助力构建完备、精准的医疗语义网络,有利于对医疗患者的医学检索、智能回答和复杂病情的初步自我诊断。在辅助诊断领域,医疗人工智能为医生提供全面精准的诊断建议,助力疾病早期干预与精准防控,实现疾病实时预警,辅助医生完成复杂精细手术并提升手术成功率与康复效果,通过加速药物靶点发现和药物筛选等功能提高新药物研发成功率。医疗人工智能的技术之道还在加速发展,未来有望在多模态数据融合、边缘计算与云计算、可解释性人工智能等方面取得突破进展,对于提升医疗决策透明度与信任度、推动医疗服务智能化等具有重要意义。

  科学技术是双刃剑,医疗人工智能的技术之道可能会产生如下问题。一是医疗人工智能技术与医生医术发展的反向关系。没有人工智能参与下,每项诊断和每个手术都具有个别性、独特性和不可复制性,需要医生独立完成,医生必须不断学习掌握独立完成诊断和手术的技术。但有了人工智能的参与,诊断和手术在人工智能的辅助下具有一致性、普遍性、可复制性,人工智能的硬件设施和软件编程才是最重要的,一线医生的诊断和手术水平可能会因此下降。二是人机协作的模糊性使得事故出现时责任界定复杂。由于涉及“设计”开发者、诊断和手术使用者、机构管理者等多元主体,现有的责任界定规则难以满足实践需求。同时,算法的复杂性可能会加重责任认定困难,削弱公众对医疗人工智能的信任。三是人工智能算法技术决策与医学伦理冲突问题。在医疗资源分配中,算法本身始终保持价值中立,如有行为人借助人工智能算法进行基因治疗或器官移植等,都可能冲击医疗人工智能使用的伦理底线。此外,算法偏见的存在可能导致在医疗资源分配中倾向特定群体而对弱势群体不利,有可能出现因肤色、性别、年龄、财富等因素导致的误诊漏诊,激化社会矛盾,引发医患之间的信任危机。四是医疗人工智能的信息泄露问题。医患双方在医疗信息处理上处于不对称地位,患者的个人信息很容易被医疗机构掌握,并有可能被不法分子泄露和出卖,可能会侵犯患者的隐私权和被遗忘权等个人信息权利。

  医疗人工智能的法律之治

  为解决医疗人工智能技术之道带来的种种问题,需要实施有针对性的法律之治。首先,针对医疗人工智能技术与医生医术发展的反向关系,国家要立法保证医生准入门槛,降低医生对医疗人工智能的依赖度,鼓励医生通过不断提高自身医术水平,来保障每项医疗诊断和每个医疗手术的质量,有效预防因人工智能出现故障而带来的风险。而且,医务人员对患者的人文关怀不是人工智能所能代替的,也应该在法律中体现出来。其次,针对医疗人工智能使用出现事故时责任界定复杂性,需要在法律上明确医疗事故发生时医疗设备设计者、生产者、医疗机构、医务人员的责任,以及对受害者赔偿补偿的担责份额。目前,医疗人工智能只是客体而不能成为医疗事故法律责任的主体,但是生成式人工智能的自主性在不断增强,将来能否成为医疗事故法律责任的主体或许是可以讨论的。再次,针对人工智能算法技术决策与医学伦理冲突问题,需要在相关法律法规中明确医疗人工智能算法黑箱、算法偏见、算法歧视等界定和可处罚性。针对药物开发和医疗手术构建法律上的伦理审查制度,保障医疗发展的正确方向,保证医疗资源的公平共享,维护患者公平的医疗权益。最后,针对医疗人工智能的信息泄露,在法律上强调对医疗信息的严格保护,涉及个人信息的数据披露需要经过患者同意和匿名化处理,个人信息泄露方要受到严厉的法律惩处,并给予受害方相应的赔偿。总之,要通过法律上的保护性规定弥补患者在信息处理上的弱势地位,促使医患双方在信息处理上地位平等。

  目前,我国已有《中华人民共和国基本医疗卫生与健康促进法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《医疗器械监督管理条例》《医疗纠纷预防和处理条例》等法律法规对医疗健康权保障、医疗数据安全与隐私保护、医疗人工智能产品市场准入、医疗人工智能应用引发纠纷的处理等内容有所规定。但是,这些规定是分散的、不完备的、缺乏系统协调性的,没有全面涵盖医疗人工智能涉及的伦理和法律问题。因此,亟待完善医疗人工智能相关法律法规体系,对医疗人工智能产品市场准入、审批监管流程、侵权责任承担、个人信息保护等问题进行全面的法治化规制。

  (作者系华中科技大学法学院教授;华中科技大学马克思主义研究院研究员)

转载请注明来源:中国社会科学网【编辑:程纪豪(报纸) 胡子轩(网络)】