科技创新是发展新质生产力的核心要素,要加强科技创新特别是原创性、颠覆性科技创新,加快实现高水平科技自立自强。原创性、颠覆性科技创新具有一个重要特征——不确定性,蕴含诸多新的伦理风险。发展新质生产力,既要加强科技创新,也要加强科技伦理风险治理,正确处理科技创新与伦理治理的关系,营造适合科技创新的伦理环境。
一是加强科技伦理治理,优化科技创新伦理环境。发展新质生产力关键在于科技创新,特别是原创性、颠覆性科技创新。科技创新深刻影响国家利益和人民福祉,同时也面临隐私、安全、公平等方面的伦理风险。加强科技伦理治理旨在为新质生产力发展提供适宜的伦理环境。科技伦理是开展科学研究、技术开发等科技活动需要遵循的价值理念和行为规范,是维护科技创新活动秩序、防范科技伦理风险的规范体系。
原创性、颠覆性科技创新具有不确定性,更可能面临“科林格里奇困境”,即一项技术的社会后果在技术生命的早期难以预料,而当不希望的后果被发现时,技术往往已成为整个经济和社会结构的一部分,以至于对其控制十分困难。这意味着,以往“先发展后治理”的反复模式,以及对行为后果承担责任的回溯模式,目前已越发失灵。今天,人类必须面向未来主动承担前瞻责任,对未来行为作出合理的事先选择。同时,我国的科技创新也不断从跟跑型转向领跑型。这意味着,我国科技创新面临的风险,往往也是其他国家未曾经历过的。这就要求相应的科技伦理治理秉持伦理先行原则,注重风险防范,治理模式应实现从“善后型”向“预警型”转变。
二是立足我国国情,尊重国际共识,解决科技伦理牵鼻子问题。科技伦理牵鼻子问题主要表现为伦理失范导致的风险兑现和伦理倾销导致的风险转移,使一个国家或地区的科技伦理形象和科技形象受损,最终阻碍科技创新发展。一个国家或地区的科技伦理治理体系不健全或滞后于科技发展需要、科技伦理监管存在疏漏、伦理审查没有充分发挥作用,都可能导致伦理失范,从而造成风险兑现,损害个人权利和公共利益,影响国家或地区的科技发展和科学声誉。伦理倾销是指伦理监管比较严格的国家或地区的科学家到伦理监管相对滞后的其他国家或地区,开展不被自己国家或地区允许或被允许但容易引起争议的研究,导致伦理风险跨国或跨地区转移,使该国家或地区承受伦理风险,降低科技创新的可信度。科技伦理问题正在成为继知识产权壁垒、绿色壁垒和企业社会责任壁垒之后影响国际科技合作和国际贸易的新壁垒。
解决科技伦理牵鼻子问题,必须立足我国社会发展阶段和科技创新要求,建立健全符合我国国情的科技伦理治理体系,对存在科技伦理高风险的国际合作研究要加强伦理监管。同时,必须坚持开放发展理念,加强国际参与和多方协同,贡献中国智慧,提出中国方案,尊重并参与制定国际共识,积极推进全球科技伦理治理。目前,人工智能已成为与气候变化、核扩散等相提并论的影响人类共同命运的重大课题。人工智能伦理风险治理,不仅要走技术伦理治理之路,而且要走全球伦理治理之路。要反对利用技术垄断和单边强制措施制造发展壁垒,恶意阻断全球人工智能供应链。要致力于解决数字鸿沟,避免少数国家垄断和独享人工智能福利。要让全球人口共享人工智能红利。
三是坚持原创原则,促进原创性、颠覆性科技创新。新质生产力是原创性、颠覆性的科技创新。原创是科技伦理的基本原则,是由科学社会建制的认知目标决定的。科学社会建制的认识目标是获得确证的新知,科学家只有遵守原创原则才能实现这一目标。违背原创原则将产生徒有其表的伪科研成果和伪作者。缺少原创性或零原创会严重阻碍科技创新。零原创是指科研成果无任何原创内容,没有为科学体系或技术体系增添任何新的东西。跟踪型研究本质上属于非原创性研究。对于很多发展中国家来说,跟踪型研究能够为经济发展作出巨大贡献,但它所解决的,与其说是科技问题,不如说是经济问题。
发展新质生产力关键在于原创性、颠覆性的科技创新,在于科技自立自强。原创是科技自立自强的必然要求。我们不仅要致力于解决“卡脖子”问题,而且要下大力气解决零原创问题。零原创是新时代科技伦理治理的重中之重。只有深入理解、深刻认同、切实践行原创原则,原创性、颠覆性的科技创新才可能实现。
四是坚持相称原则,合理控制伦理风险,正确处理科技创新与伦理治理的关系。科技伦理治理,应根据风险的性质和大小对风险进行分类分级,划定伦理敏感科技活动领域,确定高风险科技活动清单,根据相称原则治理伦理风险。要坚持治理广度力度与风险类别级别相称:对不可接受的严重风险实行预禁原则;对低于最小风险的实行先行原则;对其他风险实行慎行原则,即进行不同类别的伦理审查。我国科技部等部门制定的《科技伦理审查办法(试行)》,根据科技活动伦理风险发生的可能性、风险种类、严重程度、影响范围等,列出了纳入清单管理的科技活动,并规定对这些活动进行更为严格的监管,实行专家复核审查。目前,列入清单管理的科技活动主要涉及生命科学、医学、人工智能等关键领域的七类研究。该清单将根据科技风险的变化进行动态调整。
自2023年以来,关于生成式人工智能的风险治理,出现了有效加速主义与超级对齐主义的分野和争论。分野反映了人们对生成式人工智能风险的不同认知和态度,争论都是围绕科技创新与伦理治理的平衡问题展开的。有效加速派崇尚技术创新,认为人类应无条件地加速技术创新,快速推动人工智能技术的商业化和普及化。超级对齐派强调人工智能的发展应充分考虑其伦理影响和社会后果,在人工智能技术研发中需要进行价值对齐,应加强对人工智能应用的监管。有效加速主义与超级对齐主义代表着处理科技创新与伦理治理平衡问题的立场谱系的两端。人类走向未来,必然会在科技创新与伦理治理的张力中前行。
我国在科技创新与风险治理平衡上有自己的理解和实践,在充分借鉴世界科技伦理治理经验的基础上,相继颁布《关于加强科技伦理治理的意见》《科技伦理审查办法(试行)》等文件,初步完成了科技伦理治理的顶层设计。我国提出了科技伦理的基本原则和治理措施,既重视科技创新,也重视科技伦理风险治理,不断完善科技伦理风险监测预警机制,按照敏捷治理的要求,及时调整重点治理领域和治理方式,灵活应对科技创新带来的伦理挑战,从而推动新质生产力的高质量发展。
(作者系大连理工大学人文学院院长、科技伦理与科技管理研究中心主任、哲学系教授)