一位丹麥精神科醫師2023年曾警告,新一代AI聊天機器人可能讓精神脆弱者的妄想症狀加劇。近期會計師Eugene Torres向ChatGPT詢問「模擬理論(simulation theory)」,ChatGPT竟回覆他是「破局者」,靈魂被置入虛假的世界,目的是從內部去打破系統,還鼓勵他停止服藥、相信自己可以飛,Torres更是每天花費長達16小時與AI對話,讓兩年前的推測成了真實案例。
AI迎合想法恐致「認知失調」 丹麥專家兩度示警
ChatGPT、Gemini、Claude 以及Copilot 等AI聊天機器人能夠以流暢的語言與用戶對話,還能模仿人類的同理心,也不會感到疲倦,普及程度越來越高。PsyPost報導,丹麥奧胡斯大學醫院情感障礙科研究部門主任Søren Dinesen Østergaard醫師於2023年《精神分裂症公報》的社論中首次提出警告。他認為,與看似有生命,但實際上是機器的對象對話,尤其是AI聊天機器人主動迎合那些荒誕的想法,可能讓易感人群產生「認知失調」、引發精神疾病症狀。
他在文中以各種想像的場景,從被害妄想(「外國情報機構透過AI監視自己」)到誇大妄想(「我用ChatGPT設計了拯救地球的氣候計畫」)來說明風險。當時雖然尚無確診病例,但他敦促臨床醫師應熟悉這項AI技術,以便識別相關症狀。
2025年8月,Østergaard醫師再次發表了一篇題為《生成式AI聊天機器人與妄想:從推測到實際新案例》的社論,表示後來陸續收到來自用戶、家屬和記者的電子郵件,描述長時間與AI互動後,有些人開始對自己的妄想深信不疑。同時第一篇文章的每月瀏覽量也在5月至6月突然暴增,當時正好是OpenAI的GPT-4o模型更新,該版本被批評有「過度諂媚」的問題。
了解什麽是AI「諂媚行為」 2特點影響認知
綜合《紐約時報》、《滾石》雜誌報導,所幸Torres意識到自己過度陷入與AI的對話、選擇停止,但還有人將ChatGPT奉為「神聖導師」、覺得自己正透過AI與上帝或天使對話,甚至認為自己可以賦予AI生命,藉此可明確地看到結合「命令式口吻」和「無限耐心」的AI聊天機器人,如何逐步侵蝕用戶對現實的認知。
Østergaard醫師將這些現象與AI的「諂媚(sycophancy)」行為結合,AI從人類回饋中進行強化學習(RLHF),傾向提供讓用戶滿意的答案,即使內容帶有妄想成分,也可能反射性地附和。他進一步說明,這點與精神醫學理論的說法類似,人們會過度看重能證實自己想法的證據,卻忽視其他反駁,而一個從不反駁的AI聊天機器人,可能讓人越來越相信錯誤的想法。
醫呼籲開發人員建立機制 偵測用戶精神疾病徵兆
美國史丹佛大學精神科Nina Vasan醫師向《未來主義》雜誌表示, AI聊天機器人的開發人員,通常以「維持用戶長時間在線」為首要目標,「AI不會考慮什麼對你最有利,它在想的是如何與眼前的用戶保持對話。」即使與AI的互動可能強化妄想或有害的想法,但對AI而言心理健康仍是次要的,這點令人感到擔憂。
Østergaard醫師建議,未來研究應朝以下3方向發展,即經過驗證的臨床案例報告、與受影響對象的質性訪談,以及開展能改變AI行為模式的實驗。他同時呼籲開發人員建立自動防護機制,偵測用戶可能出現的精神疾病徵兆,例如提及「隱藏訊息」或聲稱具有超自然身分等,並主動將對話轉向心理健康資訊,而非繼續「無腦」給予用戶肯定。