二月二十六日,中國圍棋協會發出關於撤銷違規運動員秦思玥職業段位等處罰的情況通報,顯示經查看當日賽場影片,及聽取裁判、棋手及工作人員證言,證實秦思玥當天淩晨進入賽場藏匿手機與在比賽過程中作弊。年僅十八歲職業棋手秦思玥被中國圍棋協會處罰撤銷段位,並禁賽足足八年。
事發在去年十二月十五日的全國圍棋個人錦標賽中,擁有圍棋三段的秦思玥在比賽中被對手趙奕斐發現有疑似作弊情況,巡查裁判隨後發現她在桌子底下藏有一枝手機,秦思玥被當場判負。根據棋譜顯示,那一局比賽秦思玥的棋譜與AI吻合度為高達73%,進一步證實了她的作弊嫌疑。
活在資訊爆炸的年代,AI垂手可得,相關的軟件多如天上繁星,瞬間,無論是ChatGPT,又或是當時得令的Deepseek,不單可以寫一篇學術論文,亦可以在高手棋局中輕易打敗對手。惟是,這是否已構成作弊及其背後倫理道德考量,真的非常值得分析探究。
甚麼叫做作弊?其理論又是如何?
根據維基百科的定義:「作弊是一種欺騙或欺詐的行為,可使作弊者在競爭中不公平地獲得優勢以達致利己的目的;作弊通常也會犧牲他人的利益。作弊包含對規則的逾越。」網絡搜查,「貓」是北京方言,不是名詞的貓,而是動詞的躲藏,如「他貓」起來了,大家都找不到。我們常說的 「貓紙」是把寫上關於測驗考試內容的紙張收藏,當老師捉到作弊時定會問貓紙在哪裡?換言之,出貓指把抄錄文字的紙張收藏起來,等測驗考試時拿出來作弊用。另一說法是由英文copy cat而來,原意是抄襲,引申在測驗考試時抄自己預先準備用來作弊的紙條,意譯為出貓。前述的女棋手的「貓紙」就是手機,內含強大的AI,可以幫她取勝。
美國註冊舞弊審核師協會(ACFE)的創始人兼會計學會會長史蒂文.阿伯雷齊特(W.Steve Albrecht)在分析會計舞弊的時候,提出了一個著名的理論「舞弊三角」,阿伯雷齊特認為,舞弊產生的原因有三個:壓力、機會和自我合理化。其實,非常適合用來分析從科舉到高考、再到棋賽作弊等行為。高考學生背負著父母期望及對前路茫然的壓力,怎會放過能拿比別人高分的機會,於是,一切都是為家人為前途為大局著想,一切的不擇手段都言之成理。棋手作弊也許是求勝心切,得不償失的行為。
東望洋超高樓停建多年,最近無端又獲審批按81.32米高,而不是52.5米,換言之,只要把立面改為玻璃設計,就可以過關。從來,限高是因為其影響松山登塔的景觀,現在,外牆變成玻璃就不影響景觀,這是何來的邏輯。如果過去違規違法是作弊行為,損害了澳門市民的世遺景觀權益,政府沒有要求其降低樓層高度,沒有為市民的利益把關,是否都有作弊的嫌疑呢?
無論是政府、社會及家長,對作弊皆息事寧人,骨子裡正告訴大家作弊並沒有大不了,試看今天,無論是內地、港澳地區,過度重視愛國教育,輕視誠信教育,層出不窮的作弊行為已經普及到整個社會每一個角落。於是,孩子慢慢視作弊被逮到為倒楣,僥倖加歪理讓作弊情況更趨惡化。如果我們相信「細時偷針,大時偷金」這個價值邏輯,那麼,細時考試作弊,大時為職為政為賈而作弊,對個人及社會其傷害遠遠超過考試作弊的損失。當我們三令五申要孩子誠信守規,成人社會卻誠信破產,何以身教,何以服人!
AI在創作與競技中的應用:作弊還是科技進步?
隨著人工智慧技術的迅速發展,AI工具如ChatGPT正在各個領域展現其驚人的能力。無論是在學術寫作、創意產出,還是策略性極強的圍棋比賽中,AI都能夠提供前所未有的輔助功能。然而,這些技術的廣泛應用同時引發了關於公平性、原創性及道德良知責任的爭議。究竟當我們利用AI進行作文創作或在比賽中借助AI的力量,這樣的行為是否構成作弊呢?。
近年來,AI輔助的寫作工具已經成為許多人日常學習與工作的幫手,甚至已經成為大中小學生代替做功課的幕後黑手。這類工具可以根據用戶輸入提供文本生成、語言修飾及創意建議,幫助提升文字表達能力和寫作效率,甚至製製作簡報、圖表及海報都輕而易舉。這種被視為「擴展人類智慧」的技術,能夠促進知識的普及與創意的發展,但同時亦削弱人本身的思維、分析、創新及批判能力。長期過度依賴AI,到最後反而會被AI徹底淘汰。甚且,人類正面臨非常弔詭的現象,AI本來是幫助人的工具,卻在不斷進步的過成中反而不斷大敗人類,從弱化能力到丟失了工作,真是不一而足。
然而,當AI工具被用於學術作業或考試時,其是否構成作弊則成為一個值得關注的議題。學術作業本質上要求學生展示自己的思考與理解,如果僅僅依賴AI生成內容而未進行個人思考與修改,就容易使得作品缺乏真正的原創性。在許多教育機構中,作業和考試是用來評估個人學習成果的重要依據。若學生在未經允許的情況下使用AI代勞創作,這無疑違背了學術誠信的基本原則。因此,許多學校和大學已開始制定相關政策,要求學生在使用AI工具時必須標明來源,或者在評估時嚴格監控AI輔助的程度,從而避免產生作弊行為。
回到本文前述的棋手,圍棋作為一項極富策略性的智力競技,曾長期被認為是人類智慧的極致表現。然而,自從AlphaGo等AI系統在圍棋比賽中取得突破性勝利後,圍棋的競技格局發生了巨大變化。AI的運算能力和模式識別技術,讓它在對局中能夠提供超出常人理解的下法,甚至為人類專家提供全新的戰略啟示。
傳統競技比賽強調的是參賽者個人或團隊的實力和臨場應變能力。若允許使用AI,則可能破壞比賽的公平性,因為參賽者間對AI技術的掌握程度、資源投入和使用策略存在巨大差異。將AI作為一種「工具助力」引入比賽,其實是撼動競賽的本質與意義。若所有參賽者都在AI輔助下比賽,那麼,棋手不再是人,而是兩方AI在對戰。
無論是在學術領域還是競技場上,公平競爭都是最基本的原則。部分人可能擁有更先進的AI工具或更豐富的使用經驗,這會在競爭中形成不公平優勢。若使用者在不透明的情況下使用AI生成內容或輔助決策,其他參賽者或評審無從得知這些內容的來源,進而影響評價的公正性。
隨著技術的進步,社會各界也在積極探索如何制定相關的法律和規範來引導AI的正當使用。政府、教育機構以及比賽組織者需要共同合作,明確界定 AI工具在不同場景下的合法與合規範圍。當AI輸出的結果出現偏差或引發爭議時,如何追究責任,也是現階段必須解決的倫理法律問題。
為了避免因使用AI而產生的不公平現象,首先需要建立一套明確的規範,根據不同的應用場景進行區分。如在學術領域,對於論文、作業等學術產出,應要求使用者在引用AI輔助時,必須明確標示並對生成內容進行合理修改與補充,確保最終作品反映個人的真實思考。在競技比賽方面,各類比賽中,應嚴格禁止或限制使用任何外部輔助工具,保證比賽結果能夠真實反映參賽者的實力。
總體來說,利用AI進行作文創作或在圍棋等競技比賽中借助AI,是構成作弊並沒有一個絕對的答案,而是要看具體情境及相關規則的約束。在學術與競技領域中,公平性、原創性及透明度始終是評價行為是否合理的重要標準。從倫理角度出發,正確使用AI技術應該是建立在公正、負責和人機協同的基礎上。當前,我們亟需在政策、教育和社會討論中尋求平衡,既能充分發揮AI的潛能,又能保障人類智慧與創造力的核心價值。只有這樣,才能確保技術進步與倫理道德同步前行,避免因濫用技術而引發更多的社會與道德問題。
未來,隨著技術的不斷演進與規範的不斷完善,如何更好地界定AI輔助與作弊的界限,將成為學術界、競技界以及整個社會共同探討的重要課題。