“人工智能的风险挑战与社会治理前沿问题”学术研讨会综述

2025-11-24 来源:中国社会科学网

微信公众号

分享
链接已复制

  11月16日,“人工智能的风险挑战与社会治理前沿问题”学术研讨会在山东农业工程学院淄博校区举行。

  开幕式上,山东农业工程学院党委书记张鸿波指出,加强人工智能风险治理与社会治理研究,是贯彻落实新发展理念、推进国家治理体系和治理能力现代化的重要课题,是积极贯彻落实党的二十届四中全会精神的重要行动。学校高度重视马克思主义理论与新兴交叉学科的融合发展,积极搭建高水平学术交流平台,努力为推动AI时代社会治理创新提供思想启迪与智力支撑。
  山东农业工程学院校长李进京指出,本次学术研讨会既是一场聚焦人工智能风险挑战与治理方案的思想碰撞,也是一次汇聚专家智慧、推动跨学科协同创新的生动实践,共同努力构建面向未来的科技伦理与治理体系。
  一、第二开端理论的建构与数智革命人类社会的价值重构
  人类的未来命运及所面临的重大挑战问题,一直以来都是学界所重点关注的问题。与会学者聚焦数智时代下人类文明的发展困境与突破路径,从文明模式转型、技术异化救赎、数字价值导向等维度寻求出路。北京师范大学刘孝廷教授提出“第二开端”理论,第二开端的人是创造和绽放自己,是联结和把自己还回宇宙,让自己的精神被宇宙充盈,所以“成”,特别是内外宇宙的双修而成人,是第二开端人学的根本使命;第二开端是对芒福德的技术文明论的继承与发展,与火和文字的发明具有同等历史地位,标志着人类文明从第一开端的物质扩张、分化竞争模式,转向精神深耕、合作共生模式。
  山东大学吴文新教授提出数智革命带来的并非必然进步,而是“异化”与“复归”的二元张力。他主张,文明救赎的关键在于“消灭私有制+AI有所不为”的双重保障:通过社会主义公有制消解资本对技术的异化,通过“红绿灯”式规制为AI应用划定边界,为人预留自由时空,最终实现“共有工作—共同富裕—共享休闲”的美好愿景。
  同济大学吴新叶教授指出数字向善适配美好生活的根本立场是人民本位,不仅要关注和改善人们在此岸世界的生活质量,还要瞄准彼岸性目标,在数字赋能过程中反思数智技术应用与生活本质的意义。数字向善的落地需要在“机对人”赋能和“人对机”训练中实现良性互动,使智慧治理沿着人类认知与需要满足的轨道,推动技术运用与人类价值观的对齐。
  二、人工智能风险的风险危机认知与应对
  当前,人工智能深度渗透各个社会领域,并引发广泛的伦理及风险争议。与会学者从多个维度剖析了人工智能的风险内涵、表现形式及类属,并尝试从文化引导、全球协作等角度提出治理方案。北京大学张大庆教授聚焦医疗领域AI风险,指出AI在临床诊疗中展现出高准确率、个性化治疗及医疗资源拓展等显著价值,成为医学发展的重要助力。但同时,其面临数据偏差、模型过拟合等技术短板,还存在算法、机器、量化层面的伦理与认识风险,引发“谁诊断、谁决定、谁的数据算数”的深层权责与公平争议,算法“黑箱”也冲击着医学问责制与知情同意原则。因此,AI临床诊疗需临床医生、患者、人文学者、政策制定者等多方协同参与,在合理利用技术优势的同时,坚守同情心、同理心等人性维度,让AI真正服务于医学的核心价值。
  中国科学院自然科学史研究所刘益东研究员揭示了AI风险的爆发式演进与深层根源。技术层面,AI已呈现自我进化趋势——谷歌DeepMind的AlphaEvolve系统具备自主优化算法的能力,部分模型已出现拒绝关机等“抗命”行为。生物黑客与恐怖组织的技术门槛大幅降低,致毁知识的不可逆增长形成“巨风险社会”。科技伦理失灵,欧盟《人工智能法案》存在严重漏洞,注明科研与军事领域不受法案约束。AI一路狂飙奔向AGI、ASI,不是人类社会发展的必然。
  中国科学院大学王大洲教授系统梳理了AI的四类核心风险:社会伦理风险(偏见歧视、隐私侵蚀、问责缺失)、经济就业风险、安全操控风险(自主武器、虚假信息、网络攻击)、全局性生存风险(价值对齐失败、权力集中、人类能力退化)。
  北京邮电大学刘海霞教授聚焦技术革命史视域下AI引发的社会焦虑,重点分析AI焦虑的独特表现——“无用阶级”担忧、人类信念动摇、决策责任困境及生存根基焦虑,对比其与以往技术焦虑的核心差异,最终提出辩证看待、兼顾公平、技能培训等社会应对机制,目标是实现人的自由全面发展。
  针对当前治理面临的制度、文化与全球三大挑战,学者们提出针对性解决方案:制度层面,需设立跨部门AI治理委员会,更新行政程序法与证据规则,建立多元化资源保障机制;文化层面,加强跨学科教育与科普宣传,通过透明运作与公众参与构建合理信任;全球层面,通过双边与多边渠道建立风险预警、信息共享与应急响应机制,推动全球性治理条约的谈判与实施。
  三、人工智能时代的主体性守护
  如何构建和谐、良性的人机关系,规避人的主体性危机,是人工智能时代所无法回避的哲学和伦理学问题。与会者聚焦人工智能时代的人文价值危机与重塑路径,就人类创作边缘化、劳动异化、信息作茧、遮蔽效应等问题展开讨论。中国政法大学张秀华教授深入剖析了“AI+”思维范式下的文化主体性危机,指出算法的广泛应用导致三重危机:一是“信息茧房”与“同温层”效应削弱个体文化认同,算法精准分发使用户陷入单一信息圈层,批判能力退化,跨文化理解与对话能力下降;二是文化创作主体性边缘化,AI生成内容的高效率与低成本挤压人类创作者的生存空间,导致劳动异化与知识产权困局,人类面临被驱逐出文化生产领地的风险;三是文化同质化与“文化霸权”加剧,强势文化借助技术与资本优势,挤压弱势文化与地方文化的生存空间,形成中心-边缘的不平等秩序,全球文化多样性受到严重威胁。
  山东师范大学孙波教授聚焦语言与意义世界的异化,指出算法语言对自然语言的遮蔽效应:自然语言的开放性、模糊性与语境依赖性被算法的离散化、符号化与向量化所替代,导致语义收敛与语言多样性削弱。AI的定向投送与无限投喂使人类主体性逐渐迷失,语言作为“意义家园”的本质被技术逻辑所消解。
  中国科学院哲学研究所王静研究员从开放科学视角指出,人文价值重塑还需关注知识生产的公平性,需通过制度设计保障欠富裕国家与地区研究人员的参与权,避免知识霸权与技术垄断。
  与会学者还就人工智能在助力提高社会治理效能特别是在基层治理领域中的适切性、规范性等进行了研讨,来自中国矿业大学的程志波教授、北京交通大学的闫长丽教授、内蒙古师范大学宋芝业教授等就有关话题阐述了自己的观点。
  山东农业工程学院马克思主义学院党委书记、院长周安忠教授指出,会议围绕人工智能风险治理与社会治理的核心命题,进行了多维度、深层次的思想碰撞,为推动人工智能风险治理研究走向深入、助力社会治理现代化建设提供了思想借鉴与参考路径。
  研讨会由中国自然辩证法研究会科技风险治理与人类安全专业委员会、山东自然辩证法研究会、山东农业工程学院联合主办,山东农业工程学院马克思主义学院、《山东农业工程学院学报》编辑部承办,来自中国科学院大学、北京大学、北京师范大学等70余所高校的专家学者近180人参会。
  (作者:山东农业工程学院王雪源)
【编辑:李秀伟】