近年來,隨著全球科技競爭日趨激烈,人工智能(AI)已從實驗室走向日常生活,並迅速滲透教育領域。澳門特區政府亦不例外,非常不遺餘力極速推進入校園。教育及青年發展局局長龔志明明確表示,澳門已將人工智能納入中小學課程,並透過與杭州科技企業合作,推動教育轉型與人才培養。這一政策方向,無疑是對接國家「科技自立自強」戰略的重要舉措。然而,在一片「科技向善」的願景之中,我們更需要冷靜追問,人工智能教育的本質是什麼?它究竟是教育的助力,還是思考能力的侵蝕者?
人工智能教育的本質是工具訓練,還是人文培育?
目前政府人工智能教育的政策目標,可以被理解為「培養未來科技人才」、「提升學生數碼素養」。然而,這種理解過於狹隘。教育從來不只是技能訓練,而是對「人」的全面塑造與綜合成長。
人工智能教育的本質,應包含三個層次:第一必然是技術素養,即學生需要理解AI如何運作,包括算法、數據與模型,這是基礎能力。第二是提升認知能力,
學生應透過AI工具,提升分析、判斷與解決問題的能力,而非依賴AI代替思考。第三也是最核心的,是倫理判斷素養,學生必須理解科技的邊界,思考「能不能做」與「應不應該做」的差別。
然而,當前不少AI教育實踐,卻停留在第一層,即只懂得操作工具。例如學習如何用生成式AI寫文章、畫圖、編程。這種教育模式,實際上是將學生訓練為「AI使用者」,而非「思考者」。如此發展下去,很容易讓學生變成「AI奴隸」,而非我們期待的「AI主人」。這正呼應了MIT實驗室科學家科斯米納的研究,當學生使用ChatGPT進行寫作時,大腦活躍度顯著下降,甚至出現「記不起自己寫過什麼」的現象。83%的學生無法引用自己剛完成的內容,16%對作品產生疏離感。這不僅是學習效率的問題,更是主體性流失的警訊。換言之,若AI教育只停留在「讓學生更有效率完成任務」,那麼教育的本質將被徹底扭曲,學生不再學習思考,而是學習如何避免思考。
人工智能教育的雙刃劍效應,個性化學習 vs 思維退化
不可否認,人工智能為教育帶來前所未有的可能性。從正面價值看待,的確能解放與賦能。無疑,AI可以實現真正的「因材施教」,即根據學生程度調整學習內容,即時提供反饋與建議,幫助教師減輕行政與批改壓力。這使教育從「標準化生產」走向「個性化發展」。對於學習困難學生而言,AI甚至可以成為重要的支持工具。
然而,針無兩頭利,人工智能教育亦有負面風險,容易造成師生的依賴與退化。換句話說,當工具過於強大,人是否還願意思考?人腦具有「節能傾向」,一旦發現捷徑,便會自動減少努力,造成「路徑依賴」。這種機制在AI時代被無限放大,學生不用AI寫作,慢慢,語言文字組織能力漸漸退化;學生碰到所有難題,只要用Gemine或ChatGPT,答案瞬間就呈現,不再需要花時間理解過程;
師生學生用AI馬上獲得總結答案,可以完全省略閱讀文本。久而久之,學生可能具備「產出能力」,卻缺乏「理解能力」。這種現象可被稱為「認知債」(cognitive debt),短期內提升效率,長期卻削弱能力。正如科斯米納所警告的——當你告訴大腦可以不用思考,它就會停止思考。因此,AI教育的最大風險,不在於技術本身,而在於人類對技術的依賴方式。
杭州有哲學教育補底,澳門有何解方?
在這樣的背景下,澳門選擇與杭州合作,具有其合理性。杭州不僅是科技重鎮,更被視為中國較早推動AI教育與跨學科整合的城市。值得注意的是,杭州的AI教育並非單純技術導向,而強調批判性思維、跨學科融合、價值判斷能力,這些元素,本質上與「哲學教育」高度重合。
哲學教育從來都是扮演思考扣問的角色,讓學生理解「為什麼」。哲學教育的核心,不是提供答案,而是培養提問能力。例如:機器能否取代人類?AI決策是否公平?技術是否中立?這些問題,正是AI時代最關鍵的議題。當學生學習AI的同時,也學習質疑AI,才能避免盲目依賴。
然而,我們亦需保持警覺,杭州的成功,並不代表其已完全解決「科技與人文」的張力。原因在於,政策導向仍以科技發展為核心,人文教育往往是「配套」,而非主體。哲學教育未必普及且深入,批判性思維的培養,需要長期積累,而非課程設計即可達成。社會環境仍強調效率與競爭,在功利導向下,學生仍可能將AI視為「取巧工具」。因此,杭州的經驗值得借鑒,但不應被理想化。哲學教育並非萬靈丹,它本身也需要制度與文化的支撐。
提升整體哲學深度與倫理素養
在這場關於效率與思考的拉鋸之中,法國哲學家丹尼爾.安德勒(Daniel Andler)在《AI會取代人類智慧嗎?》一書最後一章,〈人工智慧與善〉提出了一個極具警醒意味的觀點。他指出人工智能的真正風險,並不在於它是否會「超越人類」,而在於人類是否會在不知不覺中「降低自身對善的要求」。當人們習慣將判斷、決策甚至價值選擇外包給機器時,人類原本需要承擔的道德責任,便會逐漸被稀釋。久而久之,我們不再問「這樣做是否正確」,而只問「這樣做是否有效率」。
安德勒進一步提醒,人工智能並不具備真正的道德能力,它只能模擬選擇,卻無法承擔選擇的後果。如果教育過早讓學生依賴AI作出判斷,將會削弱其倫理覺醒與責任感,使人逐步失去作為「道德主體」的地位。換言之,當人類將思考外包給機器,最終失去的,不只是能力,而是對「善」的敏感度與堅持。
這一警語對當前澳門的AI教育發展尤為重要。若我們只強調效率與技能,而忽略價值與判斷,那麼培養出來的,將不是能夠駕馭科技的人,教育若失去了對「善」的追問與堅持,即使再先進,也只是空洞的進步。
澳門的關鍵問題在於政策是否「以人為本」?
澳門推動AI教育,表面上是課程改革,實質上是教育理念的轉型。問題在於:這一轉型,究竟是「技術導向」,還是「人本導向」?目前政策的幾個潛在風險包括過度強調「對接國家戰略」,雖然政策強調配合國家發展,但教育若過度工具化,容易忽略學生個體發展。再來是課程設計偏重技能,若AI課程以操作為主,學生將成為「技術使用者」,而非「知識創造者」。接著是教師準備不足,
AI教育不只是教工具,更需要教師引導倫理與思辨。然而,教師是否具備相關能力,仍是未知數。
若要避免AI成為教育的「侵蝕者」,澳門需要在政策上作出更深層的調整。首先,必須弄清楚,從「教AI」轉向「用AI學習」,AI不應成為學習的終點,而應成為促進思考的工具。例如:要求學生比較「自己寫」與「AI寫」的差異,分析AI答案的錯誤與偏見。
再來,建立系統性的AI倫理教育,AI倫理不應只是附加內容,而應成為核心課程,包括數據偏見、隱私問題、深偽技術。更重要的是引入哲學與批判思維訓練,可以透過案例教學,例如「AI版電車難題」,讓學生理解決策背後的價值衝突。最後,必須重塑教學的評估方式,若考試仍以結果為導向,學生自然會依賴AI。因此,應增加過程評估、口頭答辯、原創性要求等。
人工智能為教育帶來巨大機遇,但也提出前所未有的挑戰。澳門當前的政策方向,顯示出對科技發展的積極回應,但真正的問題不在於「是否發展AI教育」,而在於如何發展。教育的終極目標,不是培養會使用工具的人,而是培養能夠理解世界、反思自身、並作出負責任選擇的人。
如果AI讓學生變得更高效,卻更空洞,那麼這樣的教育無疑是失敗的;
如果AI讓學生學會提問、質疑與創造,那麼它才真正成為教育的助力。在工具效率與創意思考之間,澳門必須作出選擇。而真正的善意發展之道,或許正如一句簡單卻深刻的提醒,科技可以替我們思考,但不能代替我們成為人。