人工智能技术在质性研究中的应用

2024-10-16 来源:中国社会科学网-中国社会科学报

微信公众号

分享
链接已复制

  从学科发展史来看,一种新技术或新方法的诞生和应用会促进该学科、该领域的进步与发展,而技术与方法的背后有其理论取向和认识论基础,这就涉及方法与技术应用的伦理、适切性等问题。质性研究作为一种方法学、研究范式或一个研究领域,其发展总是伴随着新方法的产生、发展与新技术的应用。

  质性研究的理论取向与发展历史

  从理论的视角来看,可以将质性研究取向归纳为以下三种。一是建构主义理论取向。该取向聚焦个人生活经验和意义,认为人类生活世界或社会现象是个人主观意念建构的产物,这种意义的建构过程主要依赖于研究者与研究对象的对话和互动来实现。该取向的具体研究方法包括解释现象学分析、话语分析、会话分析、建构扎根理论等。二是批判理论取向。该取向聚焦文化与社会变革,主张研究者要关注社会权力关系,通过研究来推动社会变革和改革,达成改造社会的目标。该取向的具体研究方法包括民族志(人种志)、女性主义、行动研究等。三是生命历程取向。该取向聚焦个体的生命故事及其与社会的交互关系,认为个体的生命历程反映了社会变迁,社会环境与社会变化塑造了个体的生命故事,个体的思想、主张和行为受到个人生命经历的影响。因此,要从整体性脉络着手对个体生命故事进行诠释。该取向的具体研究方法包括生命史研究、叙事分析、生命故事分析、(心理)传记分析等。

  质性研究的发展历史是各种新方法的产生和发展以及新技术应用的过程,其发展历程可以按照时间划分为三个阶段。第一阶段是20世纪60年代前。这一时期,心理学家和社会学家主要采用个案研究、传记研究、生命史研究等质性方法来探究社会心理现象以及普通个体和杰出人物的生命故事。这是一种较长时段的研究,较为关注历史与文化因素。第二阶段是20世纪60—90年代。许多质性研究方法如扎根理论、解释现象学分析、话语分析、会话分析、叙事分析等在这个时期诞生并得到发展。此时,在社会科学研究领域,质性研究方法与量化研究方法进行了激烈的抗争。进入90年代,质性研究作为相对于量化研究的另一大类方法,才逐渐得到了社会科学各大学科的接纳与认可。第三阶段是21世纪初至今。这一时期,各学科的质性研究学术组织纷纷成立,多种质性研究刊物得以创办,许多学科定期召开质性研究学术会议,人才培养列入大学教学计划,并开设相关课程。随着制度化建设的完善,质性研究论著大量增加,一些新的质性研究方法,如主题分析、生命故事访谈法等相继诞生,一些质性研究方法如扎根理论、话语分析等获得新的发展。

  质性研究的新进展

  近十年,混合方法研究和计算机及人工智能技术在质性研究领域的应用是其新进展的两个重要方面。20世纪90年代,混合方法的使用曾存在较大争议,其中一个重要原因是量化研究与质性研究的哲学理论基础不同。将混合方法引入质性研究,特别是将其引入教科书作为专章介绍的学者坚持认为,可以不用考虑哲学问题,只要实践证明行之有效就好;另一些学者则试图寻找能够支撑这种方法的哲学流派,最终杜威的实用主义哲学得到了大部分学者的认可。进入21世纪以后,才逐渐平息了使用混合方法的争议,并发展出了各种类型的混合方法。

  20世纪八九十年代以来,基于计算机技术的各种质性分析软件,如Maxqta、Atlas.ti、Nvivo等相继诞生。这些质性分析软件在资料管理、文本转录、图表绘制、内容分析、提高效率等方面确实起到了一定作用,但仍然需要研究者基于数据资料、知识经验、逻辑分析进行最终的编码。近两年,人工智能技术特别是ChatGPT在文本表征、资料编码、导出结论、建立理论等方面发挥了重要作用,也极大地提高了质性研究的效率与质量。但ChatGPT等人工智能技术在质性研究中的应用才刚刚开始,一些重要问题如认识论问题、伦理问题等都需要进行深入探讨。

  认识论问题和伦理问题

  ChatGPT、Sora等生成式人工智能技术是一种行为主义范式的人工智能。行为主义范式的人工智能更多地是在与学习环境的相互作用中得以体现的,是在不断适应周围复杂环境时所进行的行为调整,是在对环境的行为响应中通过自适应、自学习和自组织而形成智能的,而不是通过符号、表征和逻辑推理等形成智能。因此,从某种程度上看,其认识论基础具备了建构论的一些特点,与建构论的质性研究方法有某种契合性。

  在质性研究中使用生成式人工智能技术要考虑认识论问题。ChatGPT等生成式人工智能技术对质性资料的编码分析与归类将会胜过作为人类的研究者的经验与逻辑编码归类,因此我们有可能最终会接受人工智能技术的编码结果,采用基于该编码提出的理论或理论模型。研究者在研究中的能动性只剩下如何向ChatGPT等人工智能提问的问题,这时知识的产生便是人工智能建构的结果,而非研究者建构的结果。

  如果将知识的产生视作人的主观经验建构的结果,人工智能技术无论多么强大,在质性研究中也只是一种人类建构知识的辅助工具而已。在实践中,我们也发现,采用不同的人工智能技术进行质性文本资料的编码,即使研究者所提出的问题相同,其编码的结果也是存在差异的。即使人工智能将来能发展到情感价值的范式阶段,拥有像人类那样的情感、情绪、直觉、本能和灵感,人工智能也是非人类的,因为它没有人类的肉身和几百万年的进化历史,那时我们可能需要思考人机协调的认识论问题。因此,质性研究作为强调价值、情感、文化与人的主体能动性的方法,对各种先进技术的应用与量化研究是很不一样的。

  目前,已有相当多的文章对ChatGPT等生成式人工智能技术在论文研究、写作、发表中的伦理问题进行了深入探讨,包括在科研使用中存在的虚构文献引用、数据隐私泄露与使用不当、机器算法不透明、学术公平失衡、研究者思维惰性与创新退化,以及作者著作权和人才客观评价等伦理道德问题。对于人工智能技术应用于质性研究,除了上述提及的伦理问题外,还需要关注以下两个问题。一是质性研究主要是基于对研究对象的文本资料的分析,而文本资料具有本土文化性、社会性和历史性。ChatGPT等生成式人工智能技术受到设计者设计理念、价值观的影响,具有价值偏向性,特别是使用西方人开发的生成式人工智能技术进行质性研究,其结果可能会对使用者和研究者产生误导,从而做出不符合本土文化性的解释和理论构建,产生文化伦理冲突。二是质性研究主要聚焦于个体或特定群体的生命故事、生活经验及其意义,强调研究者对所研究的个体和群体的理解和意义诠释。使用生成式人工智能技术进行质性研究,可能会产生人工智能的理解、诠释与研究者的理解、诠释的混淆,导致研究者的主体性削弱甚至丧失以及研究者责任的模糊等问题出现。

  (作者系岭南师范学院首席教授)

转载请注明来源:中国社会科学网【编辑:张玲(报纸)赛音(网络)】