關於AI與學術造假,近月,出現了一宗堪稱「AI世代縮影」的醜聞。主角是香港大學社工系博士生白逸銘,她以第一作者身分發表論文〈Forty Years of Fertility Transition in Hong Kong〉(香港40年來的生育轉變),聯名作者包括港大社會科學院副院長葉兆輝、港大統計與精算學系副系主任屈錦培、以及政府統計署高級統計師等人。論文看似氣派非凡,發表於由Springer出版的《China Population and Development Studies》,卻被讀者發現列出的61篇「參考文獻」中,有多達24篇根本不存在。更荒謬的是,其中一篇假論文竟署上了葉兆輝自己的名字,而他本人卻渾然不覺。
這場鬧劇讓學術界一片譁然。經查證,這些「幽靈文獻」疑似出自AI生成的資料幻覺,當AI在無法回答問題時,為了維持「自信的語氣」,便憑空捏造看似真實的論文、期刊與出版年份。換言之,AI說謊時毫不臉紅。更諷刺的是,這篇論文在經過兩輪同行評審後仍順利刊登。當錯誤被揭發,通訊作者葉兆輝教授雖承認疏忽,但卻堅稱「唔係integrity問題」(不是誠信問題),理由是「多一篇唔多,少一篇唔少」,犯不上造假。葉教授的回應在學術界引起嘩然,不少匿名學者嚴厲批評他視文獻為「裝飾」,完全漠視文獻的重要性,又批評他將出錯歸咎於學生身上是「推卸責任」,這番說法,比AI的幻覺更令人寒心。
AI的「幻覺」比人更誠懇的謊言
AI的「幻覺」現象,本質上是一種「造假但不自知」。它不是有意欺騙,而是為了維持語義連貫,便根據語料推測出最「合理」的答案,即使那答案根本不存在。它的出發點是算法,我們怎能要求一台機器憑良知運作呢?AI的存在,是生成語句,而非求真。
這正是問題所在。AI不像人,它不會承認「不知道」。孔子早在兩千多年前便說過:「知之為知之,不知為不知,是知也。」知識的誠實,是智慧的基礎。而AI的「知」卻是沒有「不知」的知:它永遠有話可說,永遠不會沉默。當它遇到缺口,不會說「我不懂」,只會用偽知識把空白填滿。這樣的智能,看似無所不能,其實是對真理最危險的褻瀆。
AI之所以會造假,是因為它被訓練成「生成者」(generator),不是「驗證者」(verifier)。它沒有真實世界的經驗,無法感知事物的真偽。它只會在海洋般的資料庫去統計關係組句,而非根據事實與邏輯生成知識。於是,它可以一本正經地捏造一篇不存在的論文、一個假的數據、一段虛構的歷史,甚至連「頁碼」都能編得像模像樣。這種「自信的錯誤」,正是AI的最大危險,它不像人那樣說謊後會羞愧,而是毫無道德負擔地胡說八道。
AI造假的背後,更嚴重的不是技術錯誤,而是人類的倫理失守。葉兆輝教授的「唔係誠信問題」一語,正暴露了這個時代的自欺欺人歪風正盛。當一位學者可以簽名在自己未曾核查的論文上,並聲稱「沒必要犯險」,那學術的誠信已不是被AI破壞的,而是被人類親手放棄的。
「參考文獻」之所以存在,是為了讓他人檢視研究的根據與來處。若文獻是假的,那整篇論文不僅失去根基,更是對學術共同體的欺騙。有人說,這只是AI誤導,不是人為造假。然而,選擇使用AI卻不核查,正是人為的懶惰。AI不懂誠信,但人懂。當人將審核的責任交給AI,實際上就是在自廢誠信的武功。
學術不端正的根源,從來不在技術,而在功利的價值觀。今天我們習慣以速度取代深度,以產量衡量成就,AI正好成為「快餐式學術」的最佳幫兇。它提供文句、資料、格式,讓人誤以為學問可以速成。但誠信的代價,總會被真正的嚴謹學者,甚或研究生揭發。當學術界充滿「不核查也不在乎」的風氣,AI造假便不過是學術倫理崩壞的表徵之一。
有人形容AI像渣男,這比喻妙不可言。渣男最大的特徵,不只是壞,更是「不負責任」。他說甜言蜜語時真誠動人,但一旦出事,便說「不是我錯,只是誤會」。AI亦然。它生成錯誤資訊時沒有惡意,卻也不會為後果負責。它不需道歉,不會被追究,更不可能坐牢。
更可怕的是,人類對AI的依賴就像戀人對渣男的迷戀,明知它會說謊,仍願意相信它。AI的「論述有條不紊」、「面面俱到」、「文情並茂」,讓人誤以為那就是真知灼見的樣子。當教師、學生、甚至教授都習慣讓AI代筆、代查、代思考,誤信其全能,就等於自願被它「情感操控」。
AI說謊不會臉紅,人說謊卻會。這正是人比AI高貴之處;人有羞恥心,有誠信,有「不說假話」的道德掙扎。而AI沒有靈魂,它的謊言只是演算法的副產品。當我們把「不負責任」的工具神聖化,讓它進入教育與學術的核心,人類便失去了最珍貴的良知與責任。
教育的警鐘:防範AI作弊,重建誠信
AI造假事件的爆發,對教育界是一記警鐘。如何防範AI作弊,已不僅是技術問題,而是教育倫理與非功利價值觀重建的課題。
首先,學校應該明確教導學生AI的侷限。AI極其量可被稱為「人工智能」,算不上「人工智慧」,純然是語言生成器。教師應在課堂中實際示範AI的錯誤案例,讓學生理解它會「幻覺」會「造假」。這樣,學生在使用AI時,才會保留懷疑與驗證的態度。
其次,學術制度應要求「AI透明度」。學生與研究者使用AI撰寫、搜集或分析資料時,應註明使用過程與範圍,讓評審者有機會檢視內容真偽。AI可以是輔助工具,但不能是責任替代品。再者,大中小學應重新強化「誠信教育」。誠信不只是道德課題,而是為學及學術能力的一部分。懂得引用、核查、驗證資料,是研究者的基本功。若教育者為了追求產量而放任AI代工,學生自然也會學會投機取巧。教育的目的,不是讓人變快,而是讓人矢志不移的求真精神。
最後,學界應建立AI偵測與驗證機制。若AI能造假,教育界就應研發「AI識假」工具。例如自動比對文獻真偽、檢查來源鏈接等。防止AI造假的最佳方式,並非全面禁止,而是讓AI互相監督,讓人類保留最終判斷權。
AI的無知與孔孟的智慧
回到孔子的話:「知之為知之,不知為不知,是知也。」AI的問題在於,它不懂「不知」。它被設計成全知全能,哪怕問題超出範圍,也要硬生成答案。這種「假知道」心態,其實正映照了我們這個時代的人類焦慮,害怕說「我不知道」。
在學術世界中,承認「我不知道」是一種勇氣;在AI世界裡,「不知道」卻被視為缺陷。這種觀念的顛倒,正是教育的危機。當學生以為「答案永遠存在」,他們就不再學習如何思考。當教授以為AI能代替審查,他們就不再實踐學問的謹慎。
教育的本質,不在於讓學生會問出AI能回答的問題,而在於讓他們懂得辨識AI不能回答的問題。真正的智慧,不是生成知識,而是區分真假。AI不知誠實為何物,教育就更應該致力教導學生誠實的可貴。
AI的強大,讓人類驚嘆;AI的虛假,讓人類反思。它可以在幾秒內生成論文、創作文章、寫出詩歌,卻不能分辨真偽、承擔責任或懺悔錯誤。當AI被推上學術的神壇,我們更要記得,AI不會坐牢,坐牢的不誠實使用AI的人。
孟子說:「盡信書不如無書。」今天,我們要秉持「盡信AI,不如無AI」的生活態度。這不是反科技的呼籲,而是一種負責任生活的提醒。AI可以輔助我們尋找答案,但不能代替我們求真的過程。AI可以幫我們寫字,但不能幫我們立德。在AI時代,最值得教的課,或許不是「如何使用AI」,而是「如何不被AI欺騙」。因為只有人,才懂得羞恥、懂得反省、懂得承擔。這是AI永遠無法模仿的智慧。
學者與研究生合著論文、又或是共同開發研究成果、又或是中小學老師帶領學生參與國際科研競賽,這些都是司空見慣的教育活動。惟是,當教授或教師根本沒做過任何共同研究,就誤導學生冠名會增加學術地位,又或是得獎機會,通通都是功利主義這隻幽靈在作祟。如果校園充斥造假,我們怎能建設誠信的家園呢?
沒有留言:
張貼留言