【专题】人工智能时代的认知与伦理建构

2026-03-23 来源:中国社会科学网

微信公众号

分享
链接已复制

 


算法黑箱问题:休谟问题的当代延续 

  李章吕 中国社会科学院哲学研究所教授  
  我们能否从有限的经验认识中得到可靠的科学知识?这就是著名的“休谟问题”。休谟认为,归纳推理无法从“过去如此”必然推出“未来也如此”,其结论的可靠性依赖于“自然齐一律”(即“未来会像过去一样”),但该假设本身不可证明。因此,休谟认为,我们难以从有限的经验认识中得到可靠的科学知识。
  显然,算法黑箱问题与人们对归纳知识的疑虑无本质区别,我们对算法结果的信任,与我们对“太阳明天升起”的信任一样,都缺乏逻辑必然性,只是基于经验上的判断。因而,算法黑箱问题与休谟问题是高度同构的。正如伯雷尔指出的,大语言模型所使用的机器学习本质上是“归纳引擎”,其输出是对已有数据的统计归纳,这种输出对未来输入的适用性依然受制于休谟式的不确定性。因此,只要不改变大语言模型的底层技术,继续采取这种基于联结主义的机器学习模式,那么其输出结果就不会是绝对可靠的。【原文阅读】
  
  李珍  中山大学马克思主义学院教授  
  脑机接口技术的突破正在颠覆传统道德责任观的哲学根基。传统责任观所依赖的主体性、控制力与认知三大条件在脑机接口情境下面临系统性失效:主体性因脑机融合而消减,行动者从生物个体演变为神经—技术复合体;控制权被分布式重构,改变了心理意向与行动结果之间的线性因果链,代之以算法植入、潜意识触发等多重因素引发的过度决定;认知模式转向集成系统化,技术深度介入感知、决策与执行的认知闭环。分布式道德责任理论虽突破了传统个体主义范式,但也难以适配脑机接口以神经界面重构能动性物质基础的技术定位。因此,脑机接口伦理须建构基于延展能动性的人机共同责任范式:在承认技术延展责任边界的同时,强调人类主体性在伦理秩序中的核心地位。
  近年来,随着脑神经科学和人工智能的快速发展,脑机接口技术取得了突破性进展。作为革命性的人机交互范式,脑机接口绕过了传统依赖周围神经和肌肉组织的生物输出路径,通过解码神经电信号构建大脑与外部设备的直接交互通道。随着应用场景日益广泛,脑机接口的伦理问题逐渐突显。【原文阅读】
 
  闫坤如  华南师范大学哲学与社会发展学院院长、教授  
  人工智能作为引领新一轮科技革命和产业变革的颠覆性技术,正以前所未有的广度和深度重塑生产方式、生活模式与治理范式。从医疗诊断精准赋能到智能制造的提质增效,从智慧城市的高效运转到民生服务的普惠升级,从自动驾驶的解放双手到金融监管的精准风控等,人工智能技术应用已经释放出巨大发展动能。与此同时,人工智能技术发展也带来一系列新挑战,如生成式人工智能的内容伪造、脑机接口的隐私侵犯、算法偏见的伦理限制等问题层出不穷,成为制约人工智能健康发展的堵点和痛点。如何发展负责任的人工智能,正成为各国共同面临的核心议题。
  2021年9月,国家新一代人工智能治理专业委员会进一步发布《新一代人工智能伦理规范》,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养六项基本伦理要求。构建负责任的人工智能治理体系,既是顺应全球科技治理趋势的必然选择,更是我国实现人工智能高质量发展、建设科技强国的内在要求。负责任的人工智能不仅是技术挑战,也是对社会治理、伦理共识和全球协作的考验,更是对思维范式的转换。【原文阅读】
  
  王奇琦 厦门大学马克思主义学院副教授  
人工智能具有强大的计算能力,能够快速生成海量信息,正在深刻改变人类社会的知识生成与传递方式。当算法所生成的信息暗含系统性偏见时,其后果不仅是导致人们获取的信息失真,更可能使弱势群体在数字空间中被系统性噤声,从而催生一种新型的认知非正义,即人工智能中的认知非正义。“认知非正义”概念由知识论学者米兰达·弗里克(Miranda Fricker)提出,用以阐释个体因身份偏见而在知识生成与传递过程中遭受的不公正对待,已在医疗、求职、互联网等多类社会知识论的应用场景中得到验证。面对这一挑战,我们如何既充分利用人工智能技术提升认知效率,又确保其不损害人类的主体性与尊严,实现认知正义?这要求我们超越单纯的技术化,转而探索如何通过人工智能推动知识生成与传播的民主化,构建符合认知正义的数字社会秩序。
  人工智能中的认知非正义,反映出人工智能技术开发与使用环节产生的知识权力结构失衡问题,其应对策略可从数字平权、算法正义以及坚持人的主体性地位三个维度着手,推动人工智能真正走向负责任、可信任的“技术向善”之路。【原文阅读】
【编辑:李秀伟】