生成式AI运用于社会科学研究:风险与机遇

2024-10-16 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制

  人类正处于第四次工业革命的黎明期,生成式人工智能(AI)以其强大的创新能力,成为驱动历史车轮的超级引擎。各大互联网巨头竞相研发通用大模型,旨在为城市管理、医疗养老、教育、司法、物流等各领域提供智能化解决方案。然而,在这一历史性发展机遇面前,亦需审度其背后隐藏的风险。本文旨在讨论生成式AI助力社会科学研究的潜能和风险,尤其是后者——机遇背后的隐患、可能造成的危害及其防范。

  AI在社会科学研究中的应用潜能

  随着AI技术的兴起,学术界同样被其巨大的影响力所激发。以现阶段广泛使用的ChatGPT-3.5(以下简称“GPT”)为例,将其运用于社会科学研究,探索它在研究过程中所能发挥的功能及各种可能性,结果发现,从确定选题、研究准备、资料收集到资料分析,GPT能做到全程参与,在社会科学研究的任一环节都能发挥作用,堪称“助研神器”。

  GPT依托于大数据和机器学习技术,通过深入分析特定研究领域的发展趋势和热点问题,可以为研究者列出值得深入开展的备择选题,并对每个选题的内涵和意义作出说明。如研究者不满意GPT的建议,可以提示它生成新的选题。GPT能够因循研究者的要求不断优化建议,直至找到研究者满意的选题。研究者输入自己在研究对象、领域、方法等方面的兴趣偏好或禁忌,GPT还能为研究者“量身定制”选题建议,满足个性化研究需求。在研究者初步确定选题意向之后,GPT还能对该选题作出意义评估和风险预警,以便研究者结合实际情况,对选题做进一步调整。

  进入研究准备阶段,文献综述是不可或缺的重要环节。研究者输入研究主题和关键词,GPT便能够按照提示语生成相关文献列表,并对这些文献进行初步分类和评估。GPT被赋予了某项研究的合作者或研究助理身份,可以辅助确定该项研究的目标群体、对象范围及抽样标准。在质性研究中,GPT不仅可以辅助完成对知情同意书、受访者信息表等研究物料的准备,如果向GPT提供研究者的身份特征,它还可以辅助研究者从可能的研究视角、个人经验、伦理道德等方面实现身份反思。

  针对研究资料收集,以最基本的资料收集方式——访谈为例,GPT可以模拟不同身份的受访者,为研究者提供多重视角的信息和资料。现实中的每个受访者都有自己独特的背景、个人经验、文化和社会属性,这种多样性能够为研究提供多角度、多层次的信息和见解。为GPT赋予不同身份,GPT便可以模拟或“扮演”符合抽样条件的各种受访者。在此过程中,研究者与GPT合作,共同探寻某种身份的受访者可能的感受和故事。

  在资料分析阶段,GPT可以从资料中提取与研究主题相关的内容,并进行意义解释。以扎根理论为例,GPT能够协助研究者从原始资料出发实现逐级编码和解释,并揭示不同资料单元之间的关联性,促进新理论的生成。不仅如此,GPT还能参与对研究结果的评估。向GPT输入某些结果,GPT能够对其描述型效度、解释型效度、理论型效度、评价型效度等作出评价,并且能够给出具体的评定分值。

  AI运用于社会科学研究的风险

  在探索AI运用于社会科学研究的潜能时,其局限和风险也同时暴露了出来。

  第一,AI不具有自主性,只能作为研究的辅助工具。研究者与AI的关系如同主机与外挂、人脑与手机,主导研究过程、决定研究结果的始终是人。GPT的每一步输出都依赖于研究者的提示、引导和追问,无不体现出研究者的价值偏好、受制于研究者的能力水平。

  第二,尽管GPT辅助社会科学研究展现出巨大潜力,但受数据集偏差、模型训练的方式以及过度拟合等因素影响,GPT对数据的处理可能产生错误或不符合实际的结果,即所谓“AI幻觉”。曾有医疗研究团队检索肾脏病学文献时发现,GPT反馈的文献中存在部分虚假信息。AI幻觉不但给研究者带来困扰,甚至可能造成重大医疗事故。

  第三,使用大语言模型辅助社会科学研究还会受到算法偏见的影响。例如,在检索企业招聘策略相关文献时,GPT可能更倾向于推荐强调男性应聘者优势的文献,忽视关于女性和其他少数群体在招聘中面临的障碍和不平等待遇。这种偏见主要源于大语言模型训练数据集的性别不均,即过往的训练数据可能更多地反映了男性在招聘中的优势和特质。同理,在人脸识别技术、信贷评估等各种不同主题的文献检索中,由于用于训练的数据集本身存在偏差与限制,导致GPT在输出结果时可能对女性、儿童、老年人、少数族裔和其他少数群体表现出偏见。

  第四,尽管AI在自然语言理解、深度学习和与人类互动方面已达到相当高的水平,但它并不具备把握人类语言背后的目的或动机的能力。AI“认指令不认人”,无论研究者是谁,只要提示语相同,都会得到结构化或“一致性”的答复。这种刻板、机械、程式化的反应往往缺乏深度和可信性。

  第五,AI运用于社会科学研究,对于隐私保护和信息安全带来巨大挑战。人文社会科学研究的对象要么是人,要么与人有关。学术伦理要求研究者维护研究对象及相关人员或团体的权益,并对研究结果的科学性负责。如果将包含受访者个人信息的资料输入AI,可能造成信息安全隐患和隐私权侵害。同时,AI生成的研究资料看似原创,实则由大量数据集拼接而成,难以避免抄袭、剽窃等学术不端行为。

  第六,GPT可能会“编造事实”。研究者在GPT的帮助下,在从未进入任何真实田野或与任何受访者建立研究关系的情况下,可以生成以假乱真的研究报告。这直接引发人们对于学术研究的质疑。目前,有经验的研究者尚可以根据蛛丝马迹辨别一份研究报告究竟是出自人类研究者还是人工智能之手,但随着AI智能水平的不断提高,其仿真性越来越强,进入真假难辨的“后真相时代”,人类以往熟悉的大部分事物都将被颠覆。

  增强多主体风险防范意识

  GPT作为一种基于海量数据集群训练而成的语言模型,其内在的算法逻辑仍是一个“黑箱”,难以进行分解和验证,这无疑增加了人们对其输出内容真实性的疑虑。面对AI这一不可逆转的历史潮流,简单禁止并非治本之策,但在确保AI输出内容的真实性之前,不应滥用其开展社会科学研究。作为技术研发端的IT业应承担首要的管控责任,每推出一项新技术,都应配备相应的制约或破解机制,以确保技术的健康发展。技术部门还应不断迭代优化算法,引入多元化的数据来源,减少AI在研究中的算法偏见,提高输出内容的公正性和准确性。

  学术界应就AI的使用方式和范围制定明确的标准和规则。比如,强化伦理审查机制,确保对AI的使用符合隐私保护和信息安全的要求;明确研究者对于研究设计、数据分析和结论萃取的主导者地位;制定具体的操作指南或使用规范,指导研究者合理、有效地使用AI开展研究。研究者在使用AI辅助开展研究时,应具备良好的数字素养,对AI幻觉和算法偏见保持警惕,并采取有效防范措施,包括对GPT生成的文献进行逐条人工核验;使用多种数据库和检索工具对文献进行交叉验证;将GPT输出的内容与已有的专家知识和理论进行对比互证等。此外,调整GPT训练的数据集,增加和使用多样化的关键词和提示语,有助于减少算法偏见,提高AI输出的公正性。总之,对于AI运用于社会科学研究,既要有强烈的风险防范意识,又要制定切实的监管措施和严格的操作程序,以应对可能存在的风险和挑战。

  (作者系江苏第二师范学院学前教育学院副教授;南京师范大学心理学院博士研究生;南京师范大学心理学院教授)

转载请注明来源:中国社会科学网【编辑:张玲(报纸)赛音(网络)】