利用人工智能的学术作弊激增,高校如何应对

■郭英剑

中国人民大学首都发展与战略研究院副院长

近期有英国媒体曝出,在该国的许多知名大学,涉嫌利用生成式人工智能(AGI)进行学术作弊的案件较上一年度增加了15倍,由此处罚的学生数量也急剧增长。11月初,《泰晤士高等教育》对此做了专题报道。

那么,究竟有多少大学涉及这类学术不端案件?他们又怎样处罚学生?与之相关联,我们能否检测到人工智能(AI)所编写的内容?高校究竟该如何制定利用AI进行学术作弊的罚则?

许多英国知名高校牵涉其中

事实上,早在3个月前,英国媒体就有了相关报道。从有数据可查的 80 所大学中得出的结果显示,超过4/5(82.5%)的大学调查过学生利用AI作弊的行为。

英国伯明翰城市大学的学生利用作弊的情况最为严重,过去两个学年中共发生了402起。在兴起之初,该大学似乎受害最深,其中有307起发生在2022-2023学年。

仅次于伯明翰城市大学的是利兹贝克特大学。过去两个学年,该校有395名作弊学生受到处罚,其中205起来自2023—2024学年。这表明利用AI作弊在这所大学呈上升趋势。

紧随其后的是考文垂大学。过去两年中,该校因学生使用作弊而作出的学术处罚达到231次。

此外,还有一些大学没有在对学生使用AI作弊进行处罚的记录,包括剑桥大学、苏格兰皇家音乐学院、伦敦大学、格洛斯特郡大学和皇家艺术学院。

在此次《泰晤士高等教育》的报道中,我们可以看到2023-2024学年的最新情况——

谢菲尔德大学在2023-2024 学年共有92起疑似利用AI不当行为的案例,其中79名学生受到处罚,而在ChatGPT刚刚问世的2022-2023 学年,该校仅有6起案件和6次处罚。相同时间段内,在伦敦玛丽女王大学有89起案件,所有当事人都受到了处罚,而在此前的12个月中,仅有10起疑似AI作弊案件,9人受到处罚;在格拉斯哥大学,2023-2024年度有130起疑似案件,迄今已有78人受到处罚,余者还有待进一步调查,而在2022-2023年度,该校有36起疑似案件,26起受到处罚。

高校尚无统一应对标准与得当措施

利用AI作弊是学术界面临的新问题与新挑战。

过去,学术界对于作弊、剽窃等学术不端行为有极为明晰的定义、近乎统一的认定标准,也有恰如其分的处罚措施。然而,随着AI,特别是ChatGPT等AGI技术的逐步普及,世界上的几乎所有大学都陷入一种前所未有的困境中,甚至对此束手无策。虽然有些大学出台了针对学生使用AI的原则,但并未在校内得到推广。而且,所有人都意识到,要建立新的认定标准,才能有得当的惩戒措施。

《泰晤士高等教育》称,他们的数据是通过向罗素集团的全部24所成员大学提出信息自由申请而获得的。

罗素集团大学是英国世界一流研究型大学的联盟。该集团目前包括24所大学,代表了英国的顶尖研究型高等学府,类似于美国的常春藤联盟。其成员大学在学术研究、教学质量和全球影响力方面都居于英国乃至世界前列。此次《泰晤士高等教育》最新数据统计显示,虽然英国诸多知名高校认真对待利用AI作弊的新问题,但同样暴露出高校在应对新学术不端行为时的窘境。

其一,记录不完整。南安普顿大学等院校表示,没有记录疑似不当行为的案例,即使不当行为得到证实,也无法确定涉及AI的具体案例。伯明翰大学和埃克塞特大学及帝国理工学院也采取了类似的做法。而卡迪夫大学和华威大学则表示,不当行为案件是在系或学校层面处理的,集中整理数据过于烦琐。有些大学则只报告了少数不当行为案例,或者声称根本没有发现可疑的作弊行为。

帝国理工学院学术诚信研究专家托马斯·兰卡斯特是该校计算机专业的高级教师。他表示,学术界对学术不端行为的记录不完整并非新鲜事,但鉴于学生可以轻松访问AI应用,如此多的大学没能跟踪这些信息则令人失望。

其二,定义与检测困难。只要对AGI技术有所了解的人都会明白,利用AI的学术不端行为难以定义,检测更加困难,导致处罚的措施难以统一。

伦敦大学学院数字权利与监管副教授迈克尔·韦尔说,鉴于确认AI违法行为的难度,没有一致的方法是可以理解的。如果所有事情都集中到一起解决,而且流程过于集中和单一,你可能会发现举报学术不端行为并得到处理变得更加困难。因为人们很难找到有时间参加小组讨论或对复杂案件进行裁决的同事,特别是当他们可能需要某一领域的专业知识才能作出适当判断时,找到这样的专家就会更加困难。

针对学生越来越多使用AGI的现象,爱尔兰科克大学学院医学人文与社会科学教授戴斯·菲茨杰拉德曾指出,他很同情高校在处理AGI不端行为时的遭遇,因为这种行为通常无法证明,即使在一定程度上可以检测到,也难以完全证实。

其三,处罚标准不一。《泰晤士高等教育》称,调查数据之所以在引发人们关注的同时,也引起人们的疑虑与质疑,是因为在实施和执行与AI相关不当行为的规则方面,大学的做法并不一致。

从相关信息看,处罚措施从书面警告、降低成绩到拒绝给予学分和整体成绩不及格都有。

菲茨杰拉德注意到,爱尔兰目前正在制定一项在高等教育中使用AI的国家政策。他说,各国政府需要在监管和立法方面采取强有力的举措,完全指望大学,尤其是其中不堪重负的教学和政策支持人员,一个机构一个机构、一个系一个系地单独解决这一问题,显然不合理。

人们能否检测出人工智能的内容

应该说,虽然检测利用AI的学术不端行为有困难,也并非绝对可靠,但还是有办法识别乃至检测出相关内容的。常用的方法有五种。

一是语言特征检测。AI生成的文本通常会呈现一些特有的语言特征。比如,句法结构相对简单,有时显得模式化,重复使用类似的句式或短语;用词倾向于使用一些特定的词汇和表达,缺乏个性化的词汇选择;冗余和赘述,有时会显得啰嗦,反复强调同一信息,缺乏自然语言的精简和精确。

二是查看文本一致性和逻辑性。一方面,AI生成内容通常在复杂的推理、深度分析和逻辑论证上存在不足,因为这些需要更高的认知能力和领域背景知识。另一方面,AI有时会在同一文章中前后不一致,甚至可能在不同段落中出现矛盾或不一致的观点。

三是寻找原创性与独特性。学术写作往往具有独特的见解或贡献,而AI生成的内容在深度和创新性方面显得不足。

四是分析风格特征和学术深度。从写作风格特征看,AI生成的文本往往缺乏一些专业学术作者的写作风格,比如引用特定理论、学派的术语和复杂的学术句法;从学术深度看,AI生成的内容可能在深度和学术背景上不足,通常不能很好地体现学者的个人研究成果和创新性。

五是验证参考文献。AI生成的文本有时会包含不真实或自动生成的参考文献,或者引用的内容不准确。通过核实引用和参考文献的真实性,可能发现AI生成的文章在引用准确性上存在问题。

目前,已经有一些检测AI生成文本的工具,可以用于分析学术文章的内容来源。这些工具通常基于机器学习或统计分析方法检测。

此外,检查文章是否包含与公共语料库中内容高度相似的部分,也是检测AI生成内容的有效方式之一。许多AI生成的文本可能会借鉴现有的公开内容。因此,可以通过数据库或大型文献数据库进行对比,检测是否存在疑似文本。

高校如何防范利用人工智能作弊

摆在眼前的现实问题是,高校究竟该如何应对并制定利用AI进行学术作弊的规则与规范。

我个人以为,高校在进行相关工作时,应综合考虑AI技术的快速发展和传统学术诚信的要求,并在此基础上提出惩罚机制。相关机制既要严厉、有效,又需体现AI技术带来的特殊性。这其中以下因素是首先需要考虑的。

第一,明确AI使用的合法与非法边界。应明确学生在哪些情况下可以使用AI工具。比如,可以用于文献综述的辅助查找或数据分析的部分环节,但不可直接用于生成论文的核心内容。

应指定允许和禁止的AI工具。一些高校可能允许学生使用特定的AI工具(如翻译软件、数据分析软件等),但禁止使用生成文本或创作型AI(如ChatGPT)用于生成学术内容。

第二,加强学术诚信教育。一方面,应普及AI的使用伦理和责任。高校应在学术诚信课程中增加AI使用伦理的内容,帮助学生理解AI生成内容在学术中的限制和潜在风险,使学生意识到利用AI作弊的后果。另一方面,应鼓励教师引导学生正确使用AI。教师可以在课程中演示合法的AI工具使用方式,并对学生进行指导,帮助他们在科研中合法利用AI技术,避免违规。

第三,建立AI生成内容的识别系统。一方面,高校可以引进AI生成内容检测工具(如Turnitin、GPTZero等),以帮助教师识别潜在的AI生成内容。另一方面,要完善核查流程,规范发现AI生成内容的处理流程,包括内容核实、学生反馈、复查等,确保处理过程公开、透明。

总之,防范利用AI技术进行学术作弊需要高校在技术手段、规范制度和学术诚信教育三方面齐头并进,通过明确的惩罚机制和公开的规范流程增强学生的责任意识。此外,利用AI的学术作弊在本质上与传统抄袭有一定差异,因而在惩戒和教育方面也应体现其特殊性,帮助学生在科技环境中正确认识学术道德。