智能文本生成是人工智能领域的重要研究方向,ChatGPT的出现掀起了关于人工智能的讨论热潮。2023年3月2日,OpenAI在官方博客中宣布开放ChatGPT模型API,用户可将其集成在应用程序等产品中。换言之,企业组织、个人开发者都能使用,例如自动生成电子邮件、编写代码、开发智能问答客服等等。ChatGPT被热议及其API的开放,都进一步推动了AIGC(AI generated content,即通过人工智能技术来自动生成内容的生产方式)的发展。在可预见的未来,AIGC将被广泛应用于各行业的内容生产实践中,成为互联网内容行业的新一轮增长点。然而,我们也需要警惕AIGC带来的诸如虚假信息、意识形态偏见等的风险与挑战。特别在以计算宣传为特征的对外传播新语境中,ChatGPT将进一步增强社交机器人的内容生成功能,提高识别门槛,带来更大的风险与挑战。
一、ChatGPT赋予社交机器人智能化内容生成能力
随着人工智能技术的不断发展,如今传播主体从“人”向“人机共生”转变。在信息生产、分发、事实核查、用户的交流和互动等各个环节,人工智能技术正在发挥着重要的作用。它不仅改变了信息传播和人类交流的内涵,也重塑了人、技术和社会之间的互动关系。在计算宣传视角下,社交机器人是指借助算法技术批量注册和自动运营的社交媒体账号。社交机器人是计算宣传大规模实现的最主要手段,一般通过营造虚假人气、推送大量政治消息、传播虚假或垃圾信息干扰舆论、制造烟雾遮蔽效应混淆公众视听等策略展开行动,以试图影响舆论。在英国脱欧、2016年美国总统大选等重大政治事件中都发现了社交机器人操纵舆论以实现政治目的的痕迹。
在ChatGPT的加持下,社交机器人能够根据不同的场景、以不同的人设、甚至是不同的立场生成内容。即使面对同样的问题,ChatGPT也能够给出不同版本的内容以回答,可能生成难以判断真伪的内容以混淆视听。除此之外,ChatGPT可以让社交机器人根据上下文情景来生成内容,减少逻辑前后矛盾的情况发生,甚至能够与用户持续交流。这彻底改变了以往社交机器人千篇一律、机械地转发信息的状况。普通用户更加难以判断发布者到底是真实的人类用户还是社交机器人,从而进一步放大了干扰信息环境的风险。
二、ChatGPT提高社交机器人的识别门槛
研究者为检测社交机器人,在推文内容、在线行为、用户信息和互动网络等方面展开了大量工作。推文中含有的链接数、标点数、语言情感特征等是检测社交机器人的重要指标。然而在ChatGPT出现之后,社交机器人在自然语言预训练大模型的协助下,能够更智能地生成高质量的文本,而非以往易于检测的“重复内容”或“垃圾信息”。尽管暂时没有看到相关的图灵测试,但从ChatGPT生成的文本来看,目前一般的社交机器人检测技术的识别率可能会大幅度降低。如果说,以往社交机器人是依靠数量——即制造虚假人气和情绪传染来影响舆论的话,那么在ChatGPT的加持下,社交机器人有潜力以更像人类用户的行为方式在社交媒体上活动,实现“数量”到“质量”的突破。
当然,从内容安全的角度来看,ChatGPT开发者在研发过程中,尽量避免其回答涉及意识形态的问题,面对争议性议题也会尝试均衡地给出多方意见。但从技术角度而言,对“社交机器人+ChatGPT”带来的潜在风险产生更大的担忧也并非耸人听闻。随着智能化生成内容质量的提升,可以预见会有更多的普通用户关注社交机器人账号。这使得社交机器人的社会互动网络变得与真实人类用户相似,也进一步提高了社交机器人的识别门槛。
三、ChatGPT降低社交机器人的运营成本
相对于以往的自然语言生成模型,ChatGPT的通用性更强,面向不同的任务、在不同的应用场景里对少量任务数据进行迁移学习,就可以应用于很多场景,大幅度简化了标注数据、手工调参等环节。在ChatGPT开放API之后,可以预见运营高质量的社交机器人的成本将会降低。
在社交媒体中,社交机器人不知疲倦、不分昼夜选择性地放大信息,造成信息污染。同时,随着成本的降低,大规模的部署社交机器人可以形成互动网络,通过协调行动,对社交媒体的信息环境造成污染。通过算法技术的联系和驱动,社交机器人可以执行复杂的协调行动。大规模部署的社交机器人集群产生的信息污染,在推荐算法的分发逻辑之下可能被进一步放大。
除此之外,基于ChatGPT对上下文的理解,使得批量社交机器人更有可能实现了“共享大脑”,以往的“僵尸网络”可能变得更具生命力,从而对真实网络的渗透,通过深入的互动和大范围部署,社交机器人更有可能成为关键的网络中心节点,发挥枢纽作用。特别在重大事件和突发事件中,社交机器人的启动效果来得更为显著。以往的“烟雾遮蔽”或“标签劫持”也因为吸引更多的普通真实用户而变得更加难以识别, 影响对真实舆论的判断。
总体而言,ChatGPT提高了识别社交机器人的门槛,高质量的生成内容更容易获得普通用户的认可,从而提高社交机器人的影响力。难以判断真伪的生成内容,通过协调行动和推荐算法,在信息环境中被不断放大,从而导致虚假信息泛滥,以往的极端言论也可能以更隐蔽的方式渗透到公众之间。AIGC时代,应对社交机器人的风险与挑战仍需要更多的研究工作。
(作者系北京师范大学新闻传播学院教授)
扫码在手机上查看