当前,由Deepseek引发的AI大讨论,其热度、广度和深度还在持续推进。在人文社科领域,这场大讨论从最初对AI大模型的好奇、对其强大功能的惊喜,继而转为使用者对自身职业生涯的焦虑——AI从信息收集、数据分析到文本书写、创意设计等多个方面都表现出卓越的性能,人文社科学者的工作会否被替代?学者要如何发挥优势,才能在与AI较量时更胜一筹?
为更加直观地透视人文社科学界关于AI大模型的态度及应用选择,记者近日邀请数百位学者参与问卷调查,并对其中的焦点问题展开针对性访谈。最终收到的205份有效问卷,或可揭开人文社科领域一场静默革命的序幕——AI大模型的兴起正在深刻重塑人文社会科学的研究范式、方法论及研究者角色,这一变革既带来前所未有的机遇,也伴随新的挑战。
高效 便捷——
超六成学者积极拥抱技术
在《建构“没有文学的文学理论”如何可能?》一文中,中国社会科学院文学研究所研究员陈定家通过与AI对话,探讨了“当今时代文论何为”的问题,他对AI的回答颇为满意。“过去两年内,我一直关注AI话题、学习AI知识。借助AI收集资料和修订文章,工作效率明显提升,每次能节约1—2小时。”陈定家告诉记者。
眼下,在人文社科研究中,这样的AI使用体验并非个案。问卷调查显示,64.87%的受访者已在学术研究中使用AI工具,75.61%的使用者将其主要用于文献综述;91.22%的使用者认为人工智能大模型能够提高研究效率,而90.24%的使用者认为它增强了数据处理能力。对此,中国社会科学院新闻与传播研究所副研究员杨斌艳深有体会:“面对海量数据库,AI就像一位不知疲倦的助手,能极快地提炼观点、标注争议,还可能带来新的文献发现和线索。”
伴随Deepseek的“出圈”,其卓越性能吸引82.44%的学者将它作为首选模型,在比例上远超ChatGPT等国外产品。“Deepseek中文语料更丰富,且处理更精准。”四川某高校一位不愿具名的博士生告诉记者。
技术的便利性成为AI快速普及的关键。在所有受访者中,70.73%的人将“使用方便,操作简单”作为使用人工智能大模型的主要原因,尤其在研究和内容生成领域;50.24%的受访者认为其功能强大,能满足研究需求;45.37%的受访者看中其免费或成本较低;30.73%的受访者认为其生成内容质量高。
暨南大学国际关系学院/华侨华人研究院教授张振江接受记者采访时表示,当前,人工智能可以提供比互联网更系统和便捷的信息,更重要的是可以从不同角度进行人机对话,通过追问和互动,拓展新的研究视角和思路。张振江的观点在此次问卷调查中也占有较高比重。在关于人工智能大模型对人文社科学科发展带来的机遇中,受访者除了认可它在提高研究效率、增强数据处理能力上的卓越表现,也有71.71%的受访者认为在拓展研究方法上有启发作用,62.93%的受访者认为它提供了新的研究视角。数据同时显示,58.05%的受访者对人工智能大模型的能力和发展潜力表示好奇,而63.41%的受访者则表示正在思考它对人类社会、文化和价值观的影响。这表明,公众对人工智能的兴趣并不限于其技术能力,还涉及它带来的深远社会影响。
“时代变了,拒绝技术只会被淘汰。”记者走访多位学者发现,除了文献梳理和数据处理,他们将人工智能更多地用在辅助教学、制作课件、翻译文本等流程性工作中,可使这些工作压缩节约80%的时间成本。
受访学者认为,一方面,AI正带来研究范式的革命性转变。AI通过海量数据处理与智能生成能力,推动人文社科研究从传统的“理论驱动”或“数据驱动”向“AI协同驱动”的第五范式转型。AI能够整合多学科数据,构建复杂社会系统的动态模型,甚至模拟微型社会以预测政策效果。这种范式突破使得跨学科合作成为常态。另一方面,还将带来方法论创新与效率提升。比如,AI可快速处理非结构化数据,识别隐藏模式,辅助研究者从海量信息中提炼核心问题;AI通过概率模型解决社会科学中的“组合爆炸”问题,并构建多节点交互模型,帮助研究者更精准地预测社会现象的动态演变;虚拟现实(VR)与AI结合,可创建沉浸式研究场景,推动理论与实践的结合。当前,“积极拥抱技术”正成为大部分学者的选择。
造假 失准——
七成学者遭遇“AI幻觉”
DeepSeek“出圈”后,人们以各种方式向它抛出种种刁钻问题,检验其实力。从事影视研究的北京大学艺术学院教授陈旭光使用AI的感受颇具代表性:“我曾经让AI评价我提出的‘电影工业美学’理论,它能快速梳理该理论的起源、发展,这对于想要了解‘电影工业美学’的初学者很有帮助。”但陈旭光发现,人工智能并不能对“电影工业美学”提出更深层次的思考,这些评价模版甚至可以套用在其他学者和理论上。
除了千篇一律的模板化输出,明目张胆地“造假”也是AI给使用者上的重要一课。记者通过AI大模型检索著作权纠纷和相关法律条款时发现,一份看似完美的“诉状”使用的多个案例其实并不存在,甚至出现了编造法律条款的情况。对于这样的结果,中国社会科学院法学研究所研究员支振锋表示,人工智能虽比之前有较大进步,但“AI幻觉”依旧是其主要问题。如果不能做到逐一核实文献、法条、案例,论文中文献的准确性可能会出问题。但如果逐一核实文献信息,那么AI带来的便利和效率也打了折扣。“AI的很多判断都似是而非,必须经过研究者认真的审查和思考才能决定取舍,否则可能会给人文社会科学研究带来很多‘信息污染’,带来更多‘学术垃圾’。”支振锋说。
采访中,学者们均向记者表示,虽然AI在文献整理和检索提炼方面展现出极大优势,但其结果受多种因素影响,质量和效果参差不齐,仍需人工逐一进行核实。调查数据也印证了这一困境:73.66%的用户选择了“生成内容不准确”作为他们在使用人工智能大模型时最常遇到的问题。
记者在采访中了解到,目前AI使用的重灾区在学生期末论文写作上——一篇数千字的学期论文,AI能快速完成,且在主题、逻辑、内容和语言上挑不出大毛病。因为不要求发表,更无人对其创新性提出要求。
华南师范大学马克思主义学院教授胡国胜对AI生成的文本颇有微词,“充满了‘AI’味儿,辞藻华丽、没有灵气,就像一些美人——美则美矣,没有灵魂”。
随着信息技术的快速迭代,AI书写在学术领域的应用将愈加广泛,学者们的担忧也更多了。调查结果显示,80%的受访者认为对人工智能的过度依赖及算法取代思考,可能会导致思维的懈怠和创造力的缺失。
北京师范大学教育学部副部长滕珺表示,即便在大语言模型擅长的文献综述领域,也存在诸多问题,比如人工智能梳理文献依靠“喂”给它的语料库,很多主题关键词隐含在文献中,AI容易疏漏;AI无法识别和判断文献的价值,与学者做的文献综述相比,就是业余新手和专业选手的区别。
在使用人工智能大模型时,研究的创新性和独立性是最受关注的问题。对于严重依赖大语言模型的成果,学者们认为,这不仅是技术问题,更是学术伦理问题。根据调查结果,40.49%的受访者认为,尽管人工智能可以提供强大的分析能力,但确保研究的独立性和创新性仍然是首要的关注点。此外,33.66%的受访者关心数据质量和准确性,而伦理和道德问题的关注度则相对较低,仅占24.39%。
但AI带来的挑战与伦理反思的重要性显而易见。AI模型的训练数据可能隐含文化偏见,导致研究结论失真。此外,大模型的决策逻辑缺乏透明性,可能削弱人文研究的可解释性。AI生成内容可能模糊学术成果的版权归属,需警惕技术滥用。部分学者担忧AI可能削弱人文研究的“人性化”特质,如文学创作中的情感表达或哲学思辨的深度。这些都是受访学者目前关心的热点问题。
协同 共进——
走向“人机共生”
学者们虽然对AI有重重顾虑,但总体上仍对其持积极态度。92.68%的受访者认为人工智能大模型在人文社科研究中有一定的应用前景,超过84%的受访者积极支持在人文社科研究中使用人工智能大模型。
“机器与人类各有优势。我们既不能因为机器的缺点而因噎废食,将它束之高阁,也不能因为它使用便捷而全面依赖,放弃人类的能动性与创造性。”谈及AI的使用,接受采访的学者们大多保持了开放性的倾向。
对于AI使用中存在的问题,学者们呼吁,一方面,可开展相关培训,帮助学者了解如何将人工智能工具有效融入研究中。同时,通过促进人机协作,在研究中采用“AI处理数据,人类专注创新”的模式,形成有效的分工合作。另一方面,探索人工智能与人文社科领域的结合点,重视人类独特的创造力和情感理解,促进创新性研究。
记者调查发现,教育领域早已超前部署AI工具。2024年毕业季,华东师范大学传播学院与北京师范大学新闻传播学院联合发布《生成式人工智能学生使用指南》,涉及遵守相关法规、符合学术道德规范、使用时应进行标注、对生成内容进行必要自查、遵循学科相关使用规定,以及遵守教师课程等多项要求。该使用指南是国内高等教育界首次就生成式人工智能(AIGC)技术在教育和学术研究中的规范使用提供的官方指导。华东师范大学传播学院院长王峰坦言:“当前,学生们对AI的使用已经非常普遍,如果强行限制无异于‘掩耳盗铃’,在明确使用规范、不违背学术研究基本原则的条件下,应该有效地利用好人工智能。”
浙江大学则推出DeepSeek系列专题线上公开课,深入揭示如何突破算力与泛化天花板,探讨人类如何构建与之共生的新型文明契约;中山大学信息管理学院开设“数字人文工作坊”,教授研究者如何交叉验证AI结果、促进人机互动、规避伦理风险;北京师范大学发布了国内新闻传播学第一个“大模型驱动多模态文本分析系统”……多所高校正在进行不同方向的探索与尝试。
北京师范大学新闻传播学院教授张洪忠介绍,关于大模型对专业术语、复杂表述的分析存在欠缺的问题,可通过优化提示词、训练垂类模型,有效引导模型针对多模态文本生成高质量、高准确度、高针对性的分析结果,从而突破大模型在人文社科研究中的能力瓶颈。
如何实现人工智能与学术发展相辅相成,引发越来越多学者的关注和讨论。在中国社会科学院社会学研究所心理学研究中心副主任陈满琪看来,人工智能短期内会激发一定的学术活力,但长期来看加大了对低端学术产品的淘汰率,学界比拼的是原创性、理论性和思想性,人类的竞争力在于深度的理论和思想。
学者们甚至呼吁技术界能回应学界诉求,开发“学术专用”的人工智能大模型,增加对虚假引文的自动筛查,并引入社科领域专家参与模型训练。“未来AI不是替代学者,而是像望远镜之于天文学家,拓展人类认知的边界。”受访学者表示。
如何让AI为学术研究赋能?学者们认为,研究者需更好掌握AI工具的使用方法,具备“人机协作”思维。在基础性工作被AI替代时,研究者更需聚焦创新性问题的提出与批判性验证。未来,需开发针对人文社科需求的开源模型,培养研究者对技术局限性的批判意识,政府、机构、企业、学界应通力合作,推动跨平台建设,开展跨学科研究。
终极之问——
人工智能会让学者失业吗?
“在您看来,人工智能最终会取代学者吗?人文社科的出路在哪里?”当记者提出这个问题时,受访者答案迥异。
“十年内,AI将取代70%以上的文科专业,包括文学、哲学、翻译等,人类学习的方式将发生巨大的变革。”对外经贸大学全球创新与治理研究院研究员赵永升预测。
耐人寻味的是,在数据中清晰可见:尽管超过九成的学者看好AI应用前景,但仅15.12%的人每天“高频使用”,24.88%的学者“很少使用”,还有一些学者选择“不使用”。一位史学教授坦言:“我用AI查资料,但核心论证绝不敢交给机器。人文研究的灵魂在于思辨,而AI没有灵魂。”
“在水平不够高的AI帮助下,一批粗制滥造的学术产品可能被制造出来,挤压真正认真做研究的严肃学者的生存空间。”支振锋补充说,决策部门可能认为AI能解决很多研究问题,从而产生减少人文社会科学研究资源投放的误判。
南京大学人文社会科学高级研究院副院长胡翼青表示,AI时代,更多的担忧应是人如何驾驭人工智能,每个学科都面临一定的困窘,只是程度有所不同。我们要做的是适应数字生存,寻找人独一无二的主体性。
一些受访者认为,人工智能可能会取代一些低端、重复性或机械化的工作,如数据处理、文献综述、资料整理等。这部分工作相对简单,且不需要高度的创造性思维,但更多的学者坚信,人文社科的核心价值无法被机器复制。滕珺解释,大语言模型的本质是通过理性推理进行预测和判断,但实际上人文社科领域的底层逻辑是价值选择和实现,需要大量的想象力和意义的生成。这是大语言模型数据库不具备的,只有人脑会生成。这也不是凭空出来的,需要在知识中“摸爬滚打”,产生血肉感的神奇链接。
“AI写不出《乡土中国》的洞察,也解不开‘电车难题’的道德困境。”中国人民大学哲学院原理表示,相比人类而言,AI的优势在于信息处理的能力要强大得多,但它目前还不具备真正的思考能力、情感能力,也不具备真正的价值观判断力,它能够模仿,但其底层逻辑是需要人类的智慧去铸就。“真正的思想,永远诞生于人类对意义的追问中。”她说。
AI大模型对人文社科的影响是颠覆性与建设性并存的,它既加速了研究的科学化与全球化,也促使学界重新审视知识生产的本质。学者们认为,未来,人类研究者的核心价值将体现在提出“真问题”、驾驭技术工具的能力,以及在伦理与创新之间保持平衡的智慧。AI带来的变革不仅是技术的胜利,更是人文精神与技术理性深度融合的新起点。正如调查中一位匿名学者的留言:“我们不必恐惧AI,但必须恐惧使用AI的我们——是否正在沦为技术的附庸。”这场AI革命,终将检验人类能否在技术的狂飙中守住思想的尊严。