算法黑箱问题:休谟问题的当代延续

2026-01-26 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制

  大语言模型(LLMs)的运行过程和决策机制对外不透明,用户仅能观察到输入和输出,从而难以理解模型是如何从庞杂数据中提取并生成结论的。这种“理解鸿沟”导致我们对大语言模型结论的可靠性存疑:若不知其“如何得出结论”,何以判断其“结论是否可信”?这就是所谓的“算法黑箱”问题。传统观点认为,只有“理解”了一个系统,即能以人类语言或逻辑运算来描述其运行过程和决策机制,才能接受该系统生成的结论。但ChatGPT、DeepSeek等大语言模型的成功应用表明,某些系统即使无法被彻底理解,仍能生成许多极具合理性的结论并被人们广泛接受。这就迫使我们不得不思考:如何理解大语言模型?如何合理地接受大语言模型生成的结论?只有对这些问题有了清晰的认识,才能更好地开展人工智能治理。因而,在众多人工智能哲学问题中,算法黑箱问题居于核心地位。它既关涉技术透明度与可解释性,更直抵人机信任机制等深层次议题。

  算法黑箱问题与休谟问题具有同构性

  我们能否从有限的经验认识中得到可靠的科学知识?这就是著名的“休谟问题”。休谟认为,归纳推理无法从“过去如此”必然推出“未来也如此”,其结论的可靠性依赖于“自然齐一律”(即“未来会像过去一样”),但该假设本身不可证明。因此,休谟认为,我们难以从有限的经验认识中得到可靠的科学知识。

  大语言模型无论是训练阶段还是生成阶段,都具有显著的归纳特征。在训练阶段,大语言模型对语料库中词元(token)之间的“距离”(相关性)进行统计分析;在生成阶段,大语言模型依据这种“距离”预测下一个可能出现的词元,并根据既定的策略(贪心搜索、随机采样、束搜索等)选择一个词元将其衔接至前一个词元之后,从而生成句子、段落、篇章等。这种从数据分布中学习与运用语言使用模式的方式,相当于寻找一种“情境规律”——在给定的上下文中,哪些词元更可能出现。然而,这种“情境规律”的得出依赖于对已有数据的分析,无法保证这些规律也适用于新问题。

  显然,算法黑箱问题与人们对归纳知识的疑虑无本质区别,我们对算法结果的信任,与我们对“太阳明天升起”的信任一样,都缺乏逻辑必然性,只是基于经验上的判断。因而,算法黑箱问题与休谟问题是高度同构的。正如伯雷尔指出的,大语言模型所使用的机器学习本质上是“归纳引擎”,其输出是对已有数据的统计归纳,这种输出对未来输入的适用性依然受制于休谟式的不确定性。因此,只要不改变大语言模型的底层技术,继续采取这种基于联结主义的机器学习模式,那么其输出结果就不会是绝对可靠的。比如,麦克米伦-斯科特和莫索莱西2024年基于实证数据指出:所有的大语言模型都会生成错误答案,即使当时表现最佳的GPT-4的正确率也仅为69.2%。这是否意味着,我们应该摒弃以大语言模型为基础的生成式人工智能呢?答案是否定的。就好比归纳推理虽面临休谟问题的诘难,但在过去的几百年间,其依然是人类应对不确定性与获取知识的重要工具。面对算法黑箱问题,或许可以从休谟问题的解决方案中获得应对灵感。

  休谟问题的归纳接受与认知决策方案

  休谟问题看似动摇了科学知识这座大厦的地基。然而,哲学家们并没有放弃,而是对休谟问题展开了深入研究,给出了卷帙浩繁的消解方案,其中具有代表性的是“归纳接受”方案。该方案的核心是三条归纳接受规则。(1)高概率规则:根据主体所掌握的证据,如果命题为真的概率大于0.5,则主体有理由接受它。(2)演绎封闭规则:主体应当接受所有已接受命题的逻辑后承。(3)一致性规则:主体所接受的命题集必须是逻辑一致的。

  归纳接受方案本欲为经验命题的合理接受立规,然而,凯伯格1961年提出的“抽彩悖论”却表明其存在一个逻辑漏洞:如果同时承认这三条归纳接受规则,必然得出主体会接受如下这组矛盾命题:(1)所有彩票都不中奖;(2)有一张彩票会中奖。面对抽彩悖论对归纳接受方案的质疑,莱维认为,归纳接受的本质不应是单纯地接受“高概率命题”,而应是“在追求真理与消除悬疑之间进行风险权衡”——既要考虑命题为真的概率,又要考虑它消除悬疑的作用。其中,消除悬疑是一种“从怀疑到确定”的认知状态转变,指主体通过接受某命题来降低其对所关心问题的不确定性程度。例如,在抽彩悖论中,共有100万张彩票,但仅有一张会中奖。如果主体所关心的问题是“哪张彩票会中奖”,虽然“第1张彩票不中奖”为真的概率很大,但其消除悬疑的作用却十分有限(即使主体接受该命题,其对“哪张彩票会中奖”的不确定性程度依然很高);如果主体所关心的问题是“第1张彩票是否中奖”,那么“第1张彩票不中奖”不仅为真的概率很大,而且消除悬疑的作用也很大(如果主体接受该命题,则其对“第1张彩票是否中奖”的不确定性程度就完全消除)。因而,是否接受某个命题,需要结合主体所关心的问题,并以“谨慎指数”q来调节“追求真理”(或“避免错误”)与“消除悬疑”这两个认知目标的相对权重。q值越大,表示主体对“消除悬疑”的重视程度越高;q值越小,表示主体对“追求真理”的重视程度越高。通过调节谨慎指数,既可以避免脱离问题的抽象真理追求(如仅接受逻辑真理而不接受或然性命题,此时q=0),也可以避免单纯追求消除悬疑的激进(如接受矛盾命题,此时q=1)。

  莱维将归纳接受问题转化为认知决策问题,从而为归纳接受提供了兼顾认知与实践的理性框架。根据莱维的认知决策方案,我们接受一个归纳结论为知识,既不需要完全相信其为真,也不需要其为真的概率足够高,而只需要找到一个“均衡点”,使得其相较于竞争命题有更大的期望认知效用。因而,归纳知识其实就是主体在有限证据下基于认知理性与实践理性做出的最优选择。这就为归纳知识的合理性奠定了哲学基础,为科学知识这座大厦筑牢了方法论地基。

  算法黑箱问题的认知理解与应对方案

  算法黑箱问题本质上也是一个归纳接受问题。一方面,接受算法的结论需要依赖于对算法输出结果的观察和验证,这与基于有限实例来接受规律性认识的归纳过程相似;另一方面,算法输出的结论具有不确定性,人们无法完全确定算法在未来情况下的表现是否一致。因此,试图追求算法的完全透明性,如同试图追求归纳知识的绝对必然性一样,只能是一种徒劳的尝试。

  休谟问题的认知决策方案告诉我们,虽然归纳知识只具有或然性,然而,我们可以通过实践理性与风险管控来应对。这就为我们应对算法黑箱提供了方向:算法作为归纳系统,其“黑箱性”本质上是人类有限理性在理解机器智能问题中的延伸,须基于实践理性来审视算法黑箱的应对方案。

  早期应对算法黑箱的方案可分为两类。技术方案秉持“黑箱即技术问题”的立场,试图通过可解释人工智能(XAI)、可视化与模型简化提升透明度,却受限于算法的非线性复杂特征,即便专业人士亦难完全理解,普通用户更易陷入“解释过载”。规范方案遵循“权利—权力”范式,主张以法律与伦理来约束算法歧视与技术问责等,却常因忽视技术可行性而流于空泛。

  上述两类方案割裂了技术、规范与认知之间的关联,难以消除人类在面对算法黑箱时的本质矛盾,即“输出的可靠性”与“理解的不可得性”之间的张力。从认知的角度看,人类对“不完全透明”系统的理解问题,与人类对医生诊断和科学理论等的理解问题几乎同构。算法黑箱问题只是人类认知实践中“有限理性”的一种表现,而非对知识本质的挑战。因此,更加有效的方案是纳入认知要素,构建“有限透明—可辩护决策”的黑箱治理框架。具体包括:(1)“灰箱”解释模型:摒弃“全然透明”的迷思,在复杂性与可解释性间平衡,以“部分可理解”适配人类认知局限。(2)分层解释机制:针对普通用户、监管者和开发者等提供差异化的解释,避免“一刀切”的解释冗余或不足。(3)算法信任构建:区分“解释的技术难度”与“理解的认知可能性”,打破“理解=解释”的逻辑谬误,将对算法的理解重点放在输入—输出关系上,并从功能性维度来建立对算法的“信任”。

  “算法黑箱”问题并非单纯的技术缺陷,而是与人类历史上诸多“技术黑箱”问题一样,都是新技术引发的认知挑战,没有动摇人类知识的核心机制(验证、纠错、理性选择等)。正如莱维在《用真理赌博:论归纳与科学的目标》一书中所言,科学是以真理为赌注的归纳实践。因此,将归纳合理性的哲学思考融入技术设计,关注算法的功能性理解,在实践中不断发展与人类认知适配的解释与信任机制,并用批判性思维驾驭生成式AI这个潜力无限的工具,或许才是我们在人工智能时代与技术和谐共生的智慧之道。

  (作者系中国社会科学院哲学研究所教授)

【编辑:邵贤曼(报纸) 张赛(网络)】