加强科技伦理风险防范与治理

2024-10-30 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制

  10月19—20日,第二届“科技伦理治理协同研究论坛”在安徽大学举行。与会专家学者围绕《科技伦理审查办法(试行)》新规解读、科技伦理治理的机遇与挑战、生成式人工智能的风险与防范研究、科技伦理治理研究的协同机制等议题展开深入讨论。

  科技伦理治理

  要紧跟技术革新步伐

  目前,新兴技术正处于飞速发展时期。从事科技伦理治理研究的学者要紧跟技术革新的步伐,努力满足党中央对科技伦理治理提出的“敏捷治理”要求。中国科学技术大学机器人实验室主任陈小平提到,人工智能已突破科学技术的传统边界,进入人类思想和科学探索的无人区。人工智能的飞速发展可能会进一步改变社会结构。社会结构的剧变将带来何种政治生态,又将如何影响人类文明的进程,这些问题亟待思考。

  “随着脑机接口技术的迅猛发展,其应用前景变得越来越广泛,未来可能出现的伦理问题将日益复杂化,对脑机接口技术进行伦理治理迫在眉睫。”北京大学哲学系教授周程介绍,脑机接口研究已将脑机接口分化为三大类:非侵入式、侵入式与介入式。从物理、心理、社会层面看,三类脑机接口研究均对传统生命医学伦理原则提出挑战。从物理层面看,侵入式脑机接口虽能更好地识别脑神经电信号,更好地实现脑机交互,但显然对传统的“不伤害原则”提出了挑战。从心理层面看,脑机接口对患者的知情同意提出更多要求,改变了患者的自我身份,使患者对技术产生过度依赖。从社会层面看,脑机接口涉及隐私问题、使用者污名化问题、发生事故时责任归属问题以及脑机接口资源的公平分配问题。

  记忆增强所牵涉的被遗忘权与隐私权存在一定关联,但无法完全套用隐私权的讨论框架。安徽大学哲学学院教授王金柱认为,在思考隐私问题时,我们只能在人与物作为共同主体的框架下进行。以此方式看待“我”与数字的纠缠性,便产生“数字自我”的概念。在隐私问题领域,数字自我的存在意味着,在人的肉身死亡之后,仍然存在数字自我的隐私问题。相较于肉身自我,数字自我更具不可控性,面临的隐私问题更为复杂难解。

  复旦大学哲学学院教授尹洁提出,人工海马体是为弥补人的记忆衰退而出现的一种替代性的功能性产品,它所涉及的记忆增强是为了治疗而增强。但由此带来的记忆增强信息从何而来、这些记忆对他人和自我有什么影响等一系列问题同样应引起人们的关注。“我们的伦理治理工作从框架到细节都要十分清楚,才能有效应对新兴技术应用带来的伦理挑战。”尹洁说。

  发挥软治理与硬治理的

  协同作用

  科技伦理治理工作将呈现出多角度、全方位特征。中山大学(珠海)哲学系教授潘恩荣表示,从治理对象来看,对新兴技术开展伦理治理首先需要考虑“受治理资质”问题,这可能涉及科技、产业和社会三方面。北京化工大学文法学院教授崔伟奇认为,要对人工智能进行监管,治理主体首先要理解不断进化的社会技术文化的复杂机理,这是科技伦理治理的认识基础。大连理工大学人文学院教授王前提出,科技伦理治理分为软治理和硬治理两个途径。软治理涉及科技伦理教育,注重培育道德自律意识,激发正确的道德行为。硬治理强调通过科技伦理规则的制定形成他律系统,约束不道德行为。在注重发挥软治理与硬治理的协同作用时,要始终将软治理置于更根本的地位。

  在中国人民大学哲学院教授刘永谋看来,为避免未来可能出现的人类机器化,我们决不能将制定规则的权力交给机器,人类要努力确保包括人工智能在内的新科技发展有益于人类福祉。南京大学哲学系教授胡大平主张从根本上考虑科技创新问题,要认真反思“为什么创新”,与科技创新相关的经济活动应直面人类安全问题。

  会议由安徽大学哲学学院、中国自然辩证法研究会主办。

转载请注明来源:中国社会科学网【编辑:韩卓吾 杜琨(报纸) 张赛(网络)】