内容摘要:
关键词:机器人;人工智能;特定类型人工智能
作者简介:
随着人工智能的不断发展,人与机器如何相处的话题日益引起人们关注和探讨。机器对于人类到底是福音还是灾难?英国宇宙物理学家霍金指出,如果人类不学会避开风险,人工智能的全面发展很可能导致人类的灭绝。这似乎有点危言耸听,但却不无道理。本文认为,应当警惕并限制特定类型人工智能的发展。
倘若机器无论怎样发展根本不可能产生“智能”,担心机器人的智能会超过进而威胁人类就是多余的。机器是否有智能的问题属于哲学上的他心问题,它包含概念问题和认识论问题。
他心问题的概念问题与语言使用相关,即如何把有关心理状态的概念或语言从用于自己扩展到用于他人。概念问题的产生源于维特根斯坦后期关于私人语言的讨论。维特根斯坦认为,哲学问题(包括他心问题)是由哲学家错误理解日常语言的用法导致的。所以,出路不在问题的解决而在问题的取消。不过,很多哲学家似乎并不怎么理会维特根斯坦的劝告,而是沿着他心问题的另一个方向即认识论问题继续探索。
他心问题的认识论问题是指,如何为关于他人拥有心理状态的信念进行辩护。其关键在于说明如何由他人的行为推出他人的心灵。哲学家解决这一问题的方案主要有两种:一是诉诸最佳解释推理;二是诉诸类比推理+心理因果原则。第二种方案较为合理和可取。但是,由于类比推理是归纳推理的一种,并不具有普遍必然性,于是一些学者认为,仅仅依靠类比推理+心理因果原则,对他心问题的解答是不完全的。
由于他人心灵的主观性和私人性,对他心问题给出完全性解答本身便是不可能的。不过,不完全性解答也是一种解答,而且对于他心问题而言或许是唯一可能的解答。总之,他心问题揭示:对一个人而言,所有的他人都只是“像人”,因为谁都无法证明他人真正拥有心灵,而只是“像有”心灵而已。如果这是对的,那么对于“机器是否有智能”的问题,也只能给出一种或然性的回答,即:不能百分之百断定机器有智能或无智能,而只能说它在一定概率上有智能。至于这个概率是多大,会不会大到与人一样甚至超过人?这便属于“程度问题”。
有人把机器人的智能水平分成四个等级:功能、智能、智力、智慧,并指出目前的机器人大部分处在功能阶段,只有少部分实验室产品可能达到智能,由此推出“机器人威胁论”不成立。然而,以机器人现在还离人的智慧很远来否定“机器人威胁论”是文不对题的。理由是:1.当我们谈某物的威胁时,并非着眼于其现状,而是着眼于其未来发展;2.某物是否对人类构成威胁,不取决于其某种功能是否像人,而取决于此功能是否会伤害人。
针对第一个理由,一些人指出,即使机器人威胁论着眼于未来趋势,这种悲观的未来趋势也是小概率的,因为人脑的结构太过复杂,机器要复制人脑几乎是不可能的。若用经典的存储计算机去模拟人脑行为,当这个计算机还没造出来,它本身的质量已经把自己压成一个黑洞。可见,机器智能要在功能上达到人的水平是很难的,更别提超过人了。
然而,上述论证只能支持“人工智能不能复制人类智能”,而不能支持“人工智能无法超越人类智慧”,除非预设一个前提,即“人类智慧是最高的”。从逻辑上讲,这犯了循环论证的错误,至少是预期理由的错误。
也许有人会说,这要看如何定义最高智慧。从大脑的复杂性来说,或许人类智慧是最高的,人工智能最终可以超越大脑的某些方面,但很难达到大脑的复杂性。对此,我们的看法是:结构复杂性程度与功能强弱并非同向变化,优秀的功能系统往往结构简化而功能强大。该论证只是说明了从结构上人工智能不可能超过人脑的复杂性,由此一跃而至“人工智能在功能上不可能超越人脑”。可见,其论证在逻辑上是不连贯的。
针对第二个理由,有些人或许会问:功能会伤害人的人造产品有很多,为什么专门揪住智能机器人不放?提出此问的人似乎并不反对,我们有必要警惕和防范机器人对人类的威胁,关键问题是:机器人对人类的威胁可能超过核武器吗?如果超不过,那大不了像防范核扩散一样来防范机器人扩散。如果超得过,那就要做出更为严谨的防范。
有人指出,即使有一天机器的智能水平达到甚至超过人类,它们也不会成为人类的威胁,因为人类有道德,我们可以用道德来约束它们。19世纪英国作家巴特勒(Samuel Butler)在其小说《埃瑞璜》(Erewhon)中对类似观点批评道:首先,根本没有理由保证,到了那个时候,机器的道德感会是安全的,以至于它们还能心平气和地听人类说教。其次,道德说教依赖于人类特有的语言天赋,人类似乎可以以此自傲,但是如果机器智能真的超越人类,人类道德说教的才能或许不过是供机器观赏的雕虫小技,正如人类观赏猴子攀爬的雕虫小技一样。
还有人认为,即使人类制造出能够超越自己的机器人,后者也不过相当于人类的后代,为什么要担心自己的后代会威胁自己?对此,首先要问:凭什么认为它们是人类的后代?目前恐怕谁也拿不出确凿的证据。既然如此,就必须提防如下可能情形的发生,即人类亲手制造出毁灭自身的另一个物种。其次,即使承认它们是人类的后代,制造这样的后代也应被禁止。因为人类制造这样的后代,相当于复制或克隆自己的同类,而这将侵犯人类的独特权和尊严。正因如此,如克隆技术、基因组合人技术等也是被普遍禁止的。
综上所述,我们对机器人威胁应加以防范,需要讨论的是如何防范,即防范的方式和程度。我们主张确立“人工智能有限强化原则”,即禁止研究和制造在总体思维能力上超越自然人亦即在实践能力上可以战胜或取代自然人的机器人或人工智能体,这或许会关系到整个人类的共同利益。
(本文系国家社科基金一般项目“语境主义反怀疑论方案批判研究”(18BZX040)、广东省哲学社会科学规划一般项目“基于先验论证的语境主义知识论研究”(GD17CZX01)阶段性成果)
(作者单位:东莞理工学院马克思主义学院;华南师范大学公共管理学院)







