全球携手加强人工智能治理

2024-07-19 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制
  当前,人工智能迅猛发展并为全球治理带来了挑战,迫切需要世界各国共同建立新机制,并加强在人工智能治理领域的合作。本报记者就人工智能全球治理相关议题采访了有关学者。
  人工智能发展挑战传统治理结构
  美国亚利桑那州立大学社会创新未来学院教授安德鲁·梅纳德(Andrew Maynard)对本报记者表示,人工智能发展与全球治理之间的关系复杂多变。新兴的人工智能技术正在挑战政策制定和实施的既定方法,与此同时,需要新的模型和理念来思考如何在人工智能有影响力的领域制定有效的政策,如医疗保健、科研、通信等领域。全球治理和相关政策制定过程可能会受人工智能技术发展的影响而发生颠覆性改变,因为人工智能为政策制定者提供了新的工具,帮助他们在面对高度复杂的挑战时作出决策。
  虽然人工智能在全球治理和政策制定方面的未来图景还远未明朗,但梅纳德认为,从社会、技术和政治角度来看,世界变得日益复杂,以至于人已难以在自己能力范围内作出有效决策,人工智能将是支持未来有效治理的必要条件。而随着越来越多的决策被转移到机器上,全球治理方式将发生巨大变化,给传统治理结构带来挑战。在制定全球层面的政策时,治理图景会变得更为复杂。人工智能的发展如此迅猛,以至于各经济体正面临确保有益发展和避免制定伤害性政策之间的“步调差距”,因为人工智能的发展速度超过了传统政策制定过程优化的速度。
  在梅纳德看来,人工智能的发展很少受到经济边界的限制,由此带来了地缘政治方面的挑战。例如,虽然许多经济体都对人工智能进行监管,但在决定对人工智能的哪些方面进行监管以及如何实施监管措施方面,各经济体之间没有达成共识。考虑到人工智能的发展速度及其具有的颠覆性力量,这是一个挑战与机遇并存的过程。
  此外,任何技术力量的集中都存在潜在的弊端,这可能会导致人工智能相关经济利益分配不均,还会引发围绕西方价值观的文化集中化和技术同质化。荷兰乌得勒支大学伦理研究所研究人员亚瑟·瓜格瓦(Arthur Gwagwa)表示,如果由大国主导人工智能的发展,可能会带来一种新形式的数字殖民主义,尤其是在非洲和“全球南方”的其他地区。如果西方国家的科技企业决定了人工智能的发展轨迹,那么人工智能就更有可能反映和迎合那些占主导地位的群体,代表性不足或被边缘化的社区、文化和语言将面临风险。许多用于训练人工智能的数据集主要基于英语文化,由此产生的工具在其他语言模式中有表现不佳的风险,会忽视非英语文化的需求,并进一步导致排除或歧视非英语文化的人工智能解决方案。
  运用全球一体化的方法
  梅纳德强调,在当今全球互联世界中,应对气候变化、流行病、战争影响等挑战时需要运用全球一体化的方法,仅仅采用本地化的方法是不够的。人工智能可以成为应对这些全球性挑战的有力工具,而使用人工智能应对这些挑战的前提是就相关议题达成共识。利用人工智能进行全球治理,会因世界各地不同的社会和经济模式、世界观变得复杂。从经济角度来看,目前全球合作与地方经济繁荣之间存在紧张关系,而人工智能引发的国家安全等问题让这种紧张关系变得更加严重。
  在全球技术风险的挑战下,开发和采用负责任人工智能的全球方法变得越来越紧迫,在全球化的世界中采取孤立主义政策,最终会适得其反。作为一种不受地理或政治界限限制的通用技术,人工智能已经在全球范围内产生了影响,这种影响只会越来越强。人工智能监管不善对经济增长、关键基础设施建设和社会福祉产生的潜在威胁超越了国界,忽视这一点只会加剧风险,因为这些技术有能力破坏经济、制造和供应、通信、安全、社会等关键的全球性系统。
  生成式人工智能的迅速崛起极大增加了公众对人工智能的关注和讨论,在各类与人工智能主导的未来有关的预测中,有关各方正在努力制定人工智能相关法律法规。例如,欧盟的《人工智能法案》围绕在执法环境中使用生物识别数据设置了保护措施,并限制在自动驾驶汽车或医疗保健等高风险应用中使用人工智能。但这种监管模式仍然呈现分散化特征,不同司法管辖区之间的协调机制有限。例如,《人工智能法案》针对的是欧盟单一市场,但在其他地区缺乏法律效力,是欧洲独特做法的反映,与美国和中国这两个人工智能主要发展中心的监管文化与监管议程并不一致。
  从积极的一面看,人工智能全球治理方面存在的差距正在推动政策创新。欧洲智库艾达·洛夫莱斯研究所高级研究员埃利奥特·琼斯(Elliot Jones)建议,从全球层面协调人工智能监管的另一种方式是建立一个国际人工智能研究机构,使资源的汇集超越单个国家的范围。这种方法可以为建立处理大量人工智能相关数据所需的大型计算基础设施提供支持,从而吸引更多公共资金,使其远离私营人工智能实验室,并降低伦理风险。事实上,许多伦理风险可能与私营企业在人工智能治理方面发挥主导作用有关,这种风险凸显了公共和私营部门之间的紧张关系,而此类紧张关系几乎出现在所有关于人工智能监管的讨论中。
  相关研究显示,谷歌、OpenAI等大型私营企业主导了人工智能的发展。令人担忧的是,这可能会加剧监管机构与被监管机构之间的权力不平衡。现有的人工智能治理方法尚未解决这一问题。许多大型科技企业已经表示,它们认识到了人工智能可能带来的前所未有的风险,也有意愿履行自身责任、协助完成负责任的人工智能监管,但这一承诺将如何有效转化为实际行动仍有待观察。
  发展负责任的人工智能
  在谈到如何将人工智能纳入全球治理框架以确保公平和防止偏见时,梅纳德表示,这具有挑战性,有赖于人们对基本价值观和伦理框架的共同理解与接受。目前来看,显而易见的一点就是人工智能有潜力成为一种强大的技术,如果不负责任地加以开发和使用,就有可能会破坏经济、产生安全风险甚至带来社会危害。然而,在全球层面就“负责任”的含义达成一致并非易事。在有关负责任和合乎伦理地开发使用人工智能的讨论中,确保公平和防止偏见的议题一直备受关注。从全球层面应对这一挑战的方法之一是,优先考察“负责任”和“不负责任”的人工智能的发展样貌,并找到一套可以为全球治理框架服务的共同理念和原则。
  欧洲智库开放未来基金会战略总监阿莱克·塔尔科夫斯基(Alek Tarkowski)认为,负责任的人工智能意味着坚持开源开发原则,以及保证包容性、公平性和平等。过去,人工智能发展的雏形基本上是沿着开源路线构建的,但最近有关趋势发生了变化。人工智能领域的部分大型参与者越来越多地从开源理念转向了封闭模式,尽管他们声称这是出于安全方面的考虑,但相关批评人士认为,这更多是为了保护市场份额和减少竞争,而不是为了提高安全性。
  与此同时,全球治理机制也要确保人工智能技术被负责任地用于防止自主武器和网络战争等安全威胁。梅纳德强调,人们要警惕人工智能的武器化,因为这可能给世界各国带来灾难性后果。设计在没有人类参与的情况下用于决策的自主武器,是其中的一个关键部分,特别是当人工智能与机器人、传感器、无人机等领域的新兴技术结合在一起时,其中的风险将会大大增加。因此,各国要就如何避免或限制相关安全威胁达成协议,制定和协商形成新的有效避免风险的机制。
  总而言之,人工智能挑战了确保社会经济增长和人类福祉的传统方法,并迫使人们认识到,在国家层面和全球范围内需要新的思维、理论、模型和实践来引导先进技术的转型,并围绕人工智能全球治理进行跨学科研究,以找到能够有效应对相关挑战的方法,加强全球合作。(记者 王俊美)
    审核:李建军
    责任编辑:姚晓丹
    网络编辑:贾伟
 
转载请注明来源:中国社会科学网【编辑:姚晓丹(报纸)贾伟(网络)】