人工智能风险与人机关系

2024-10-30 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制

  随着人工智能大模型的能力日益强大,如何让其行为和目标同人类的价值、偏好、意图之间实现协调一致,即人机对齐(human-AI alignment)问题,变得越发重要。目前,人机对齐已成为人工智能领域的重要发展方向。在大模型加速发展引发了有效加速(e/acc)还是有效对齐(e/a)的发展理念之争的背景下,人们需要更加负责任地发展与应用人工智能技术,而人机对齐(包括人工智能价值对齐)方面的技术演进和治理探索,将推动人工智能领域的负责任创新,使人类与人工智能走向和谐共存、有效协作的美好未来。(阅读原文)

  技术恐惧指的是人们对新技术的不信任、焦虑、担忧甚至恐慌,从而产生排斥、拒绝和抵制新技术的心理和行为。这种情绪在人类历史上一直存在,并随着科技进步的加速而变得愈发普遍和强烈。从历史上看,任何重大技术的快速发展都伴随着社会动荡和对快速变化的焦虑——印刷机、机器生产、火车、汽车、飞机、广播和电视、核技术、计算机等都曾遭受不少人的抵制。每一次技术的重大革新和急剧迭代,都会有人发出“狼来了”的呼救。面对人工智能的迅猛发展和智能时代的到来,人们再一次感觉到“狼来了”,尤其是生成式人工智能的迭代崛起,使人们备感恐慌和不安。那么,这一次是真的“狼来了”,还是与以往人类的技术恐惧一样只是对新兴事物的一种误读或错觉?本文认为,人工智能并非真的“狼来了”,而是一项有潜力的技术,需要通过科学、理性的方法对其影响进行评估,消除不必要的恐惧和误解,让技术成为人类进步的持久驱动力,以实现人与技术的和谐共存和协同进步。(阅读原文)
  数据是驱动人工智能发展的“燃料”,训练人工智能模型尤其是大模型需要海量数据,但互联网中公开可用的数据已越发不能满足所需,甚至面临数据短缺困境。同时,一系列实践又表明,人工智能合成数据具有一定的有效性。由此,人工智能合成数据甚至被视为未来取代现实数据训练人工智能模型的主力。然而,在产业界对人工智能合成数据给予充分关注并大力推进之初,更需要从理论上前瞻性地思考:当训练数据不是真实数据而是合成数据时会发生什么?当基于合成数据的算法模型被广泛应用于医疗、自动驾驶、金融、零售等各个领域时,会产生什么样的伦理问题与社会影响?(阅读原文)
转载请注明来源:中国社会科学网【编辑:王晏清】