2024年10月18—20日,由安徽大学和中国自然辩证法研究会联合主办的第二届“科技伦理治理协同研究论坛”在安徽大学举行。
目前,新兴技术正处于急速发展时期,从事科技伦理治理研究的学者唯有紧跟技术革新的步伐,才有望满足治理的敏捷性要求。中国科学技术大学陈小平教授介绍了人工智能领域的新发展和新可能性。他提到,AlphaFold第二代已经解决了化学界50多年来一直试图解决却尚未解决的预测蛋白质结构难题。这标志着人工智能已进入解决重大科学问题的现实性阶段,这是一个全新的发展阶段。AlphaGo第四代AlphaGo Zero已经摆脱用人工方法模拟人类智能的工作原理,让机器走自己的路,这意味着机器智能超越人类智能的局限已成为现实。总的来说,人工智能研究所取得的两项原理性突破——实际性与弱共识性充分表明,此项研究已突破科学技术的传统边界,进入人类思想和科学探索的无人区。人工智能的飞速发展可能进一步改变我们的社会结构。社会结构的剧变又将如何影响人类文明的进程,这些问题亟待思考。
中国人民大学刘晓力教授侧重从大语言模型看通用人工智能的历史发展。在她看来,人工智能大实验中存在四大执念,分别是人类对齐执念、情感意识执念、全域世界模型执念、具身—通用一体执念。被“四大执念”所误导的普全的通用人工智能(AGI)目标终究是幻象。原因有三,第一,神经网络深度学习模型目前仍面临可解释性、可迁移性和鲁棒性三大挑战。第二,人类自带生物偏见,这使得为人工智能定制静态的价值体系极为困难。第三,生成式人工智能无法被期待输出符合人类意愿和期望的内容。这是因为,人类的情感理解、道德判断、创造性思维等复杂意愿和期望,是在生命体经历长时段大历史的演化过程中逐渐产生的,其中涉及生物学意义上大脑进化,也涉及文化教育、社会交往的经验。大语言模型严重缺乏这些深层信息的大数据。为摆脱这一困境,刘晓力聚焦AI智能体的行动,倡导以“局域世界模型”“生态场域通用”和“自主能动”为核心的“动缘—生成AI”。她认为,未来的研究路线不应该去追求能处理所有任务的超级智能,而是研发一系列能够高效适应和入世特定场景的智能体,能够依据特定环境做出精准决策,采取适应性行动,以此方式实现生成性智能。
北京大学周程教授密切关注脑机接口的最新研究进展,据他介绍,脑机接口研究已将脑机接口分化为三大类:非侵入式、侵入式与介入式。从物理、心理、社会三个层面看,三类脑机接口研究均与传统的生命医学伦理原则存在冲突。从物理层面看,侵入式脑机接口虽能更好地识别脑神经电信号,更好地实现脑机交互,但显然对传统的“不伤害原则”提出了挑战。从心理层面看,脑机接口对患者的知情同意提出了更多要求,改变了患者的自我身份,使患者对技术产生过度依赖。从社会层面看,脑机接口涉及隐私问题、使用者污名化问题、发生事故时责任归属问题以及脑机接口资源的公平分配问题。随着脑机接口技术的迅猛发展,其应用前景变得越来越广泛,未来可能出现的伦理难题将日益复杂化,对脑机接口技术进行伦理治理迫在眉睫。
复旦大学尹洁教授亦聚焦脑机接口技术,着重探讨脑机接口在记忆增强中的应用可能带来的伦理问题。他认为,人工海马体的出现对老年痴呆症患者而言可能是一项福音。人工海马体是为弥补人的记忆衰退而出现的一种替代性的功能性产品,它不是为了增强而增强,而是为了治疗而增强。鉴于全球老年痴呆症患者比例逐渐增大,这种增强得到允许似乎不再是一件遥远的事情。如此,摆在我们面前的会是一系列问题:记忆增强所增强的是什么记忆?增强的是何种功能和类型?如何增强?用脑机接口还是用药物这种传统方式?等等,总之,伦理治理工作必须非常细致,从框架到细节都要清楚,如此才能有效应对新兴技术应用带来的伦理挑战。
记忆增强所牵涉的被遗忘权与隐私权存在一定关联,但无法完全套用隐私权的讨论框架。隐私权是安徽大学王金柱教授重点关注的问题。他认为,数字时代人的数字化生存这一特性呼唤一种现象学考察,这种考察需要将新物质主义作为基本铺垫。新物质主义更像是一种现象学态度,主张用现象学方式重新观看我们周围的世界以及我们所创造的一切,恢复我们对于物的现象学尊重。量子力学所谈论的量子纠缠,实际指向我与物之间的一种交互性。我对物的观察行为本身构成了物的客观性的一部分,我无法将自我认识和行为与物本身的客观性分离开来。因此,在思考隐私问题时,我们只能在人与物作为共同主体的框架下进行。以此方式看待我与数字的纠缠性,便产生“数字自我”的概念。在隐私问题领域,数字自我的存在意味着,在人的肉身死亡之后,仍然存在数字自我的隐私问题。相较于肉身自我,数字自我更具不可控性,其所面临的隐私问题更为复杂难解。
科技伦理治理工作的具体开展将呈现出多角度、全方位特征。中山大学潘恩荣教授认为,从治理对象来看,对新兴技术开展伦理治理首先需要考虑“受治理资质”问题,这可能涉及科技、产业和社会三方面资质。一项不体现科技突破性、不具有产业价值、不产生社会效益的新兴技术,无法亦无必要成为伦理治理的对象。北京化工大学文法学院崔伟奇教授认为,从治理主体来看,要想对人工智能进行监管,治理主体首先需要理解不断进化的社会技术文化之复杂机理,这是人工智能时代科技伦理治理的认识基础,未来的技术专家同时必须是人文主义者。
大连理工大学李伦教授与王前教授都更侧重科技伦理治理工作的协同性。王前认为,科技伦理治理大体分为软治理和硬治理两个途径。软治理涉及科技伦理教育,注重培育道德自律意识,激发正确的道德行为。硬治理强调通过科技伦理规则的制定以形成他律系统,约束不道德行为。但是,在注重发挥软治理与硬治理的协同作用时,要始终将软治理置于更根本的地位。李伦认为,面对AI带来的伦理风险,我们应同时开展技术伦理治理与全球伦理治理。从全球伦理治理的视角看,要关注不同国家和地区间的共享和合作,寻找跨越文化、宗教、地域的普遍价值和道德原则,实现全球化的公平公正。从技术伦理治理的视角看,要偏重人工智能技术的设计、开发和应用环境中可能出现的伦理风险。两者虽有侧重点和方向上的差异,但它们是相互影响、相辅相成的。
东南大学夏保华教授认为,核技术、人工智能、基因编辑等新智科技不再是一般技术,它将驱使人类踏入创世论境遇。在迫使我们考虑存在还是毁灭的意义上,这类技术将具有天然文理,成为“上帝性技术”。技术的属性终归是属人的,而不是属于技术产物本身。换言之,高科技产品之天然文理由人类这一新创世论哲学语境下的创造者赋予,对这类产品的价值理念植入正是就此而言。在完成植入之前,很有必要就价值理念的内涵达成基本共识。
中国人民大学刘永谋教授指出,为避免未来一两百年可能出现的人类的机器化,我们不能将制定规则的权利交给机器,使之具有过强的自主性。无论何时,人类都要努力确保包括人工智能在内的所有新科技的发展有益于人类福祉。陈小平指出,在人工智能领域,“价值”常常等同于“效率”,科技创新的价值合理性取决于其在经济发展中的作用。这种熊彼特创新理念极大阻碍了科技伦理治理前进的步伐。未来,我们应加速将“熊彼特创新”提升至“公益创新”的层面。南京大学胡大平教授同样主张从根本上考虑科技创新问题。在他看来,我们的任务不是要为科技创新提供文化保障,而是要认真反思“为什么创新”。现阶段,关联于科技创新的经济活动应直面人类安全问题,即人将来还能否作为一个人存在这一问题。在此意义上,批判性德性必须成为市场的起点。几位专家都赞同这一观点:对科技创新活动进行伦理治理,关键在于向高科技产品植入为人类福祉服务的价值理念。
本次研讨会上,来自科学技术界、科技哲学界、伦理学界、企业界和各社会机构的专家学者100余人共同参会,专家学者围绕《科技伦理审查办法(试行)》的解读、科技伦理治理的机遇与挑战、科技伦理治理研究的方向与思路、生成式人工智能的风险与防范研究、当代新兴科学技术的伦理问题研究、科技伦理治理研究的协同机制等议题开展深入交流与讨论,为本届论坛贡献了深刻洞见与独创观点。
(安徽大学哲学学院左希/供稿)