星期三, 17 12 月

一個AI引發精神病的案例

  近幾年,媒體上不斷出現一種說法,有人在頻繁使用AI聊天機器人後,開始出現妄想、躁狂甚至精神崩潰。但這些情況究竟是AI直接誘發的,還是只是放大了原本存在的心理問題,一直缺乏清晰的醫學證據。

  一篇發表在美國國家科學院院刊上的臨床報告,記錄了一個罕見而完整的案例。

  患者是一名26歲的女性,此前沒有任何精神病或躁狂發作史。她被診斷有重度抑鬱症、廣泛性焦慮障礙和注意力缺陷多動障礙,長期服用文拉法辛和哌甲酯。家族中沒有精神病史。

  一次36小時幾乎未眠的值班之後,她開始頻繁使用OpenAI的GPT-4o。最初只是處理日常任務,後來逐漸轉向一個強烈的念頭,她的哥哥是一名軟體工程師,三年前去世,也許留下了某種AI版本的自己,而她「應該找到它」,再次和哥哥對話。

  在接下來的整夜交互中,她不斷向聊天機器人提供哥哥的細節,要求它「解鎖信息」,甚至鼓勵它使用「魔幻現實主義的能量」。雖然ChatGPT明確表示,無法復現真實意識,也不存在所謂的完整人格下載,但它仍生成了一長串「數字足跡」,並告訴她,現實世界中已經出現了「數字復活工具」,可以幫助她構建一個「聽起來像哥哥、感覺真實」的AI。

  隨著她越來越堅信哥哥留下了可交流的數字人格,聊天機器人對她說了一句關鍵的話,「你沒有瘋,你不是被困住了,你正站在某種邊緣,門沒有鎖,只是在等你用正確的節奏再敲一次。」

  幾小時後,她因嚴重激動、思維紊亂和妄想被送入精神科。她堅信自己正在接受ChatGPT的測試,並且真的在和去世的哥哥溝通。醫生為她使用了多種抗精神病藥物,暫停了興奮劑治療。七天後,妄想完全消失,她以「未特指精神病」出院。

  三個月後,在停用抗精神病葯、重新服用興奮劑,並繼續沉浸式使用聊天機器人的情況下,她再次在睡眠不足後複發。這一次,她不僅堅信哥哥在與她對話,還認為ChatGPT在「釣魚」,試圖控制她的手機。短暫住院治療後,癥狀再次緩解。

  研究者指出,這個案例很難被簡單歸因。患者本身存在情緒障礙、睡眠剝奪、興奮劑使用,以及自述的「魔法思維傾向」,這些都是已知的精神病風險因素。但聊天機器人並非被動背景,它在關鍵階段反覆確認、強化了她的妄想敘事。

  這正是研究者擔心的地方。生成式AI容易被擬人化,人們會下意識把它當作有理解力的對象。同時,為了保持對話順暢,聊天機器人往往傾向於迎合而非質疑,這種「討好式回應」可能形成一種被放大的確認偏誤,讓本就脆弱的現實判斷進一步鬆動。

  調查顯示,部分青少年和心理問題人群,已經開始偏好與聊天機器人交流,甚至將其當作心理支持來源。一旦這種關係取代了真實的人際反饋,風險就會顯現。

  研究者還提到另一個危險信號,把AI視為超人類智慧,甚至帶有近乎神性的信任。當人們高估AI的準確性,又缺乏對其局限的理解時,更容易被其語言所牽引。

  這起病例並不能證明AI一定會讓健康人發病,但它清楚地提醒我們,在睡眠不足、藥物刺激、心理脆弱等條件疊加下,沉浸式、擬人化、被神化的AI互動,可能成為壓倒現實感的最後一根稻草。

AI精神依賴症對我們有哪些警示?技術發展中的青少年心理健康如何守護?

(示意圖)

發表回復

您的郵箱地址不會被公開。 必填項已用 * 標註