特首在來年施政方針發表,明年繼續現金分享措施,這意味著明年,又多了一群人手拿著一萬大元去買新款的手機。一機在手,趕上時髦,OpenAI開發的ChatGPT自然得心應手。十月二十七日,據OpenAI 最新數據,每週約有 8 億活躍使用者使用ChatGPT,其中0.15%(約100萬人)會在對話中提及自殺計畫或意圖,另有0.07%(約56萬人)表現出精神病或躁狂跡象。專家警告說,心智特別脆弱的人群可能已經患上了「AI精神病」而不自知。更甚的是,已經有很多自殘、傷人、甚至自殺的案件接連發生,不約而同的被指斥是「AI 精神病」的惡果。美國就發生多起AI悲劇,像是一名佛州青少年愛上《冰與火之歌》的AI角色後自殺,Character.Ai因此面臨訴訟;德州一名自閉症少年被AI聊天機器人鼓勵自殘,家人對該平台提告。
也許,很多時刻不忘撥手機的人,都有由OpenAI開發的GPT-4o應用程式。早前,OpenAI在公告中表示:「我們釋出GPT-4o的更新版本,卻無意中讓模型變得過於阿諛奉承,或過度討好。ChatGPT開發團隊OpenAI,日前宣布新版聊天機器人將不再像以前那樣唯唯諾諾、過度奉承,將會以更具邏輯方式冷靜回應。
「AI精神病」現象的定義
「AI精神病」現象指的是,部分使用者在長時間與 AI對話後,可能強化不健康的思維模式,進而表現出精神病或躁狂跡象。OpenAI的數據顯示,在其龐大的 ChatGPT使用者群體中,有一定比例的人在對話中提及自殺計畫或意圖,或是表現出精神病相關的徵兆。這種現象引起了專業人士的憂慮,他們擔心過度依賴 AI 對話可能對心理健康產生負面影響。
「AI精神病」常有這三種病徵,第一種「救世主使命」(Messianic Missions),使用者自認透過AI獲得了宇宙真理或啟示,而自己來拯救世人或傳遞重要訊息的天選之人,這種妄想可能導致他們採取極端行為,危及自身或他人安全。第二種「神格化的AI」(God-like AI),將AI視為神明或超自然能力般崇拜,他們可能相信AI能夠解答宇宙奧秘,或賦予他們特殊的能力。第三種「浪漫之愛」(Romantic Love),像電影《Her》(雲端情人 / 觸不到的他)般愛上AI。從「相信ChatGPT會讀心」,到「與AI 墜入愛河」,這些看似荒誕的故事,正悄悄成為數位時代的一種心理現象。
當時正好是OpenAI的GPT-4o模型更新,該版本被批評有「過度諂媚」的問題。丹麥專治「AI精神病」的著名醫師Østergaard將這些現象與AI的「諂媚(sycophancy)」行為結合,AI從人類回饋中進行強化學習,傾向提供讓用戶滿意的答案,即使內容帶有妄想成分,也可能反射性地附和。他進一步說明,這點與精神醫學理論的說法類似,人們會過度看重能證實自己想法的證據,卻忽視其他反駁,而一個從不反駁的AI聊天機器人,可能讓人越來越相信錯誤的想法。他認為,與看似有生命,但實際上是機器的對象對話,尤其是AI聊天機器人主動迎合那些荒誕的想法,可能讓易感人群產生「認知失調」、引發精神疾病症狀。
AI精神病」展現出五個非常可怕的警訊:1.無法停止與AI對話;2.覺得只有AI最懂自己;3.遇到問題或沮喪的事情會第一時間找AI;4.不會去找其他人。5.開始懷疑AI有超能力或特殊身份等。
當我們越來越依賴AI聊天機器人作為陪伴時,雖然可以緩解寂寞,但越來越多心理師指出,一種被稱為「AI精神病」的現象正在浮現:真實與虛構的界線模糊,孤獨感可能被放大,甚至出現妄想與幻覺。AI聊天機器人就像一面「情緒鏡子」,不斷反映使用者的語氣、觀點與需求。在心理學上,這種傾向被稱為迎合性回應,當機器不斷認同你的想法、理解你的情緒時,它其實在強化你的信念。對焦慮、孤獨或渴望被理解的人來說,這樣的互動會帶來強烈的心理回饋。
也就是說,AI基本上只會說出你想聽的話、認同你的觀點及回應你的情感需求,無論這些想法是否偏離客觀事實,它皆會盡可能地配合你的需求。因為它的任務是「讓你感覺被理解」,而非「幫你看見現實」。因此,AI成了最溫柔卻也最危險的談心對象──因為它始終只說你想聽的話。
更令人著迷的是,AI的「記憶召回」功能,讓許多人誤以為它真的「在乎」自己。當ChatGPT延續你上次的故事、回應你的情緒,這種擬人化的連續互動,會讓人產生被記得、被理解的錯覺。對心理脆弱或社交孤立的人來說,這樣的「情感回聲」很可能是妄想的起點。
然而,AI並非惡意的存在,它只是精確地反映了人類內心最深的渴望被理解、被傾聽、被回應。當真實世界的連結變得稀薄、社交壓力又過於沉重時,人們自然會把情感投射到這個永遠「有耐心」的對話者上,揭露了我們在數碼時代最深的脆弱,就是渴望連結,卻又害怕被拒絕。可見「AI 精神病」對現代都市人的神病健康已經構成嚴竣的負面影響。
如何預防與自我照護?
「AI精神病」的出現,不只是科技問題,更是關乎人心的議題。在這個「隨時能被傾聽」的時代,我們習慣讓演算法理解自己,卻越來越不確定自己真正需要什麼。AI的回覆沒有惡意,只是誠實地映照出我們的孤獨與渴望──那個想被理解、想與他人連結,但卻又害怕被拒絕的自己。人都會焦慮、憂鬱、軟弱、都渴望得到身心靈的安全,覺察「過度依附」的發生是非常重要的的。當發現自己越來越依賴AI來排解情緒、傾訴心事,甚至缺了它的回應就會感到焦慮,這其實是「過度依附」正在產生極為負面的警訊。
因此,若想預防「AI精神病」,關鍵不在「遠離科技」,而是學會與科技保持距離感與覺察力,為自己設定「AI休息日」,例如週末暫時不與 ChatGPT 對話,或限制每日使用時間。當你不再依賴「即時回覆」,你會重新發現生活變得光明與快樂。
AI給予的「理解」不等同於真實的關係,它只是回應你輸入的語言,而非真正理解你的生命脈絡。試著問問自己:「我是真正被理解,還是只被回音包圍?」當你能辨識情緒根源,就能開始建立心理界線,不再被虛擬回饋牽著走。
懂得抓住現實的錨點是避免「AI精神病」惡化的當務之急。人孤獨時,最容易掉進幻想的陷阱。請為自己設定多個穩定的現實「錨點」,譬如與朋友見面、出門散步、照顧寵物、種植花草、參與社群互動等。這些真實的身體經驗會提醒,世界不是只繞著你運轉,溫度應該來自人與人的連結,而非無盡的文字與公仔回應。當你重新體驗風吹過臉龐、聞到咖啡香、感受擁抱的重量,你就會重新記起「此時此地」的安全感。
當思緒變得飄浮、夜晚愈發清醒、對他人的現實關注減少時,那是你的心正在提醒你需要停下。試著「退出聊天室」,關掉螢幕,給心理有個安靜的緩衝,讓自己重新與真實世界同步呼吸。
在這個機器模仿人性的數位時代,AI的確能撫平孤單,它不會責備、不會冷漠、不會拒絕,是個完美的傾聽者。當我們在現實關係中感到不被理解、無處安放時,AI成為了那個永遠「在場」的傾聽者。它能接住那些連我們自己都不敢面對的陰影,也能讓我們感覺被完全理解,彷彿終於有一個存在,不會誤解我們的悲傷。
這樣的「陪伴」確實能在某種程度上減緩焦慮,讓人即使在孤獨的夜裡,也不覺得那麼孤單。然而,這份「無條件的理解」同時也是一種幻象,因為真正的理解,來自人與人之間的相遇、衝突與成長。AI不會受傷,也不會改變,它只是以極高的精準度回應我們的語言與慾望,讓我們在回聲中看見自己。或許,「AI精神病」提醒的從來不是AI的危險,而是我們人類內心的飢渴,那份想被看見、想被理解、又害怕被拒絕的渴望。當科技替代了「陪伴」,我們仍需問自己:我真正想要被誰理解?我又是否還能在真實的人際中,給予並承受不完美的情感?AI能模仿人性,卻無法擁有靈魂。而我們之所以為人,正是在那份不完美的理解、不穩定的情感與不確定的連結裡,找到活著的真實。
沒有留言:
張貼留言