多所知名高校發案激增15倍!AI學術作弊怎麼防

文 | 郭英劍(中國人民大學首都發展與戰略研究院副院長)

近期有英國媒體曝出,在該國的許多知名大學,涉嫌利用生成式人工智能(GAI)進行學術作弊的案件較上一年度增加了15倍,由此處罰的學生數量也急劇增長。11月初,《泰晤士高等教育》對此做了專題報道。

那麼,究竟有多少大學涉及這類學術不端案件?他們又怎樣處罰學生?與之相關聯,我們能否檢測到人工智能(AI)所編寫的內容?高校究竟該如何制定利用AI進行學術作弊的罰則?

許多英國知名高校牽涉其中

事實上,早在3個月前,英國媒體就有了相關報道。從有數據可查的 80 所大學中得出的結果顯示,超過4/5(82.5%)的大學調查過學生利用AI作弊的行爲。

英國伯明翰城市大學的學生利用作弊的情況最爲嚴重,過去兩個學年中共發生了402起。在興起之初,該大學似乎受害最深,其中有307起發生在2022-2023學年。

僅次於伯明翰城市大學的是利茲貝克特大學。過去兩個學年,該校有395名作弊學生受到處罰,其中205起來自2023—2024學年。這表明利用AI作弊在這所大學呈上升趨勢。

緊隨其後的是考文垂大學。過去兩年中,該校因學生使用作弊而作出的學術處罰達到231次。

此外,還有一些大學沒有在對學生使用AI作弊進行處罰的記錄,包括劍橋大學、蘇格蘭皇家音樂學院、倫敦大學、格洛斯特郡大學和皇家藝術學院。

在此次《泰晤士高等教育》的報道中,我們可以看到2023-2024學年的最新情況——

謝菲爾德大學在2023-2024 學年共有92起疑似利用AI不當行爲的案例,其中79名學生受到處罰,而在ChatGPT剛剛問世的2022-2023 學年,該校僅有6起案件和6次處罰。相同時間段內,在倫敦瑪麗女王大學有89起案件,所有當事人都受到了處罰,而在此前的12個月中,僅有10起疑似AI作弊案件,9人受到處罰;在格拉斯哥大學,2023-2024年度有130起疑似案件,迄今已有78人受到處罰,餘者還有待進一步調查,而在2022-2023年度,該校有36起疑似案件,26起受到處罰。

高校尚無統一應對標準與得當措施

利用AI作弊是學術界面臨的新問題與新挑戰。

過去,學術界對於作弊、剽竊等學術不端行爲有極爲明晰的定義、近乎統一的認定標準,也有恰如其分的處罰措施。然而,隨着AI,特別是ChatGPT等GAI技術的逐步普及,世界上的幾乎所有大學都陷入一種前所未有的困境中,甚至對此束手無策。雖然有些大學出臺了針對學生使用AI的原則,但並未在校內得到推廣。而且,所有人都意識到,要建立新的認定標準,纔能有得當的懲戒措施。

《泰晤士高等教育》稱,他們的數據是通過向羅素集團的全部24所成員大學提出信息自由申請而獲得的。

羅素集團大學是英國世界一流研究型大學的聯盟。該集團目前包括24所大學,代表了英國的頂尖研究型高等學府,類似於美國的常春藤聯盟。其成員大學在學術研究、教學質量和全球影響力方面都居於英國乃至世界前列。此次《泰晤士高等教育》最新數據統計顯示,雖然英國諸多知名高校認真對待利用AI作弊的新問題,但同樣暴露出高校在應對新學術不端行爲時的窘境。

其一,記錄不完整。南安普頓大學等院校表示,沒有記錄疑似不當行爲的案例,即使不當行爲得到證實,也無法確定涉及AI的具體案例。伯明翰大學和埃克塞特大學及帝國理工學院也採取了類似的做法。而卡迪夫大學和華威大學則表示,不當行爲案件是在系或學校層面處理的,集中整理數據過於煩瑣。有些大學則只報告了少數不當行爲案例,或者聲稱根本沒有發現可疑的作弊行爲。

帝國理工學院學術誠信研究專家托馬斯·蘭卡斯特是該校計算機專業的高級教師。他表示,學術界對學術不端行爲的記錄不完整並非新鮮事,但鑑於學生可以輕鬆訪問AI應用,如此多的大學沒能跟蹤這些信息則令人失望。

其二,定義與檢測困難。只要對GAI技術有所瞭解的人都會明白,利用AI的學術不端行爲難以定義,檢測更加困難,導致處罰的措施難以統一。

倫敦大學學院數字權利與監管副教授邁克爾·韋爾說,鑑於確認AI違法行爲的難度,沒有一致的方法是可以理解的。如果所有事情都集中到一起解決,而且流程過於集中和單一,你可能會發現舉報學術不端行爲並得到處理變得更加困難。因爲人們很難找到有時間參加小組討論或對複雜案件進行裁決的同事,特別是當他們可能需要某一領域的專業知識才能作出適當判斷時,找到這樣的專家就會更加困難。

針對學生越來越多使用GAI的現象,愛爾蘭科克大學學院醫學人文與社會科學教授戴斯·菲茨傑拉德曾指出,他很同情高校在處理GAI不端行爲時的遭遇,因爲這種行爲通常無法證明,即使在一定程度上可以檢測到,也難以完全證實。

其三,處罰標準不一。《泰晤士高等教育》稱,調查數據之所以在引發人們關注的同時,也引起人們的疑慮與質疑,是因爲在實施和執行與AI相關不當行爲的規則方面,大學的做法並不一致。

從相關信息看,處罰措施從書面警告、降低成績到拒絕給予學分和整體成績不及格都有。

菲茨傑拉德注意到,愛爾蘭目前正在制定一項在高等教育中使用AI的國家政策。他說,各國政府需要在監管和立法方面採取強有力的舉措,完全指望大學,尤其是其中不堪重負的教學和政策支持人員,一個機構一個機構、一個系一個系地單獨解決這一問題,顯然不合理。

人們能否檢測出人工智能的內容

應該說,雖然檢測利用AI的學術不端行爲有困難,也並非絕對可靠,但還是有辦法識別乃至檢測出相關內容的。常用的方法有五種。

一是語言特徵檢測。AI生成的文本通常會呈現一些特有的語言特徵。比如,句法結構相對簡單,有時顯得模式化,重複使用類似的句式或短語;用詞傾向於使用一些特定的詞彙和表達,缺乏個性化的詞彙選擇;冗餘和贅述,有時會顯得囉嗦,反覆強調同一信息,缺乏自然語言的精簡和精確。

二是查看文本一致性和邏輯性。一方面,AI生成內容通常在複雜的推理、深度分析和邏輯論證上存在不足,因爲這些需要更高的認知能力和領域背景知識。另一方面,AI有時會在同一文章中前後不一致,甚至可能在不同段落中出現矛盾或不一致的觀點。

三是尋找原創性與獨特性。學術寫作往往具有獨特的見解或貢獻,而AI生成的內容在深度和創新性方面顯得不足。

四是分析風格特徵和學術深度。從寫作風格特徵看,AI生成的文本往往缺乏一些專業學術作者的寫作風格,比如引用特定理論、學派的術語和複雜的學術句法;從學術深度看,AI生成的內容可能在深度和學術背景上不足,通常不能很好地體現學者的個人研究成果和創新性。

五是驗證參考文獻。AI生成的文本有時會包含不真實或自動生成的參考文獻,或者引用的內容不準確。通過覈實引用和參考文獻的真實性,可能發現AI生成的文章在引用準確性上存在問題。

目前,已經有一些檢測AI生成文本的工具,可以用於分析學術文章的內容來源。這些工具通常基於機器學習或統計分析方法檢測。

此外,檢查文章是否包含與公共語料庫中內容高度相似的部分,也是檢測AI生成內容的有效方式之一。許多AI生成的文本可能會借鑑現有的公開內容。因此,可以通過數據庫或大型文獻數據庫進行對比,檢測是否存在疑似文本。

高校如何防範利用人工智能作弊

擺在眼前的現實問題是,高校究竟該如何應對並制定利用AI進行學術作弊的規則與規範。

我個人以爲,高校在進行相關工作時,應綜合考慮AI技術的快速發展和傳統學術誠信的要求,並在此基礎上提出懲罰機制。相關機制既要嚴厲、有效,又需體現AI技術帶來的特殊性。這其中以下因素是首先需要考慮的。

第一,明確AI使用的合法與非法邊界。應明確學生在哪些情況下可以使用AI工具。比如,可以用於文獻綜述的輔助查找或數據分析的部分環節,但不可直接用於生成論文的核心內容。

應指定允許和禁止的AI工具。一些高校可能允許學生使用特定的AI工具(如翻譯軟件、數據分析軟件等),但禁止使用生成文本或創作型AI(如ChatGPT)用於生成學術內容。

第二,加強學術誠信教育。一方面,應普及AI的使用倫理和責任。高校應在學術誠信課程中增加AI使用倫理的內容,幫助學生理解AI生成內容在學術中的限制和潛在風險,使學生意識到利用AI作弊的後果。另一方面,應鼓勵教師引導學生正確使用AI。教師可以在課程中演示合法的AI工具使用方式,並對學生進行指導,幫助他們在科研中合法利用AI技術,避免違規。

第三,建立AI生成內容的識別系統。一方面,高校可以引進AI生成內容檢測工具(如Turnitin、GPTZero等),以幫助教師識別潛在的AI生成內容。另一方面,要完善覈查流程,規範發現AI生成內容的處理流程,包括內容覈實、學生反饋、複查等,確保處理過程公開、透明。

總之,防範利用AI技術進行學術作弊需要高校在技術手段、規範制度和學術誠信教育三方面齊頭並進,通過明確的懲罰機制和公開的規範流程增強學生的責任意識。此外,利用AI的學術作弊在本質上與傳統抄襲有一定差異,因而在懲戒和教育方面也應體現其特殊性,幫助學生在科技環境中正確認識學術道德。