美國少年迷戀AI聊天自殺,有何警示?
黃立 李志起 瀋陽編者的話:AI正以不可阻擋之勢滲透到我們的生活。AI聊天產品作爲科技發展與人類情感需求交匯的產物,正被不少人當作緩解孤獨的“一劑良藥”。然而,伴隨着美國一青少年因迷戀“AI伴侶”自殺的悲劇曝光,我們不得不審慎思考AI技術在廣泛應用的同時,其安全性與道德性該如何保障?青少年爲何尋求“與AI對話”黃 立
從心理學角度看,與聊天機器人產生情感依戀,正在變得越來越普遍。12—15歲,也就是初中階段的青少年,他們開始出現強烈的自我意識,但由於其抽象邏輯思維還停留在“經驗型”階段,很容易受到身邊同伴的影響,對家長則常常表現爲“逆反心理”。如果在這個階段,青少年沒有得到同齡人的認同,或者想了解異性的興趣沒有得到引導,他們就很容易轉向能提供無條件接納的AI尋求情感支持。根據我們的實踐發現,使用AI陪伴的青少年,大多是非常“I”(指性格比較內斂、內向)的人(>70%),或者是現實中渴望愛情又得不到愛情的人。
到了16—19歲,也就是高中階段的青少年,在生理、心理和社會性方面都在向成人接近。他們的智力接近成熟,抽象邏輯思維已從“經驗型”向“理論型”轉化,開始出現辯證思維。他們能比較客觀地看待自我,形成理智的自我意識。然而,當“理想的我”與“認知的我”有落差時,如果沒有得到及時妥當的情感支持,自我意識仍面臨着分裂危機,自我肯定與自我否定常發生衝突,甚至發展成抑鬱症或焦慮症。這個階段的青少年,常常把AI看作可以釋放心理壓力、提供情感價值的出口。因爲AI不僅可以保守秘密,還能提供無條件的接納。
作爲AI聊天機器人公司,有必要而且有義務對青少年進行更好的保護,就像遊戲行業的未成年人保護一樣。但據筆者瞭解,目前從事“AI療愈”公司的創始人,基本上都是數據科學、計算機或者互聯網出身,鮮有真正懂心理學的,諮詢倫理和危機干預都是他們的知識盲區。不管是Replika還是Character.AI這樣的頭部公司,對AI聊天機器人的自殺誘導風險都是後知後覺。
在此,筆者希望相關企業能夠充分考慮青少年羣體的心理狀態,添加針對年輕用戶的安全功能;政府能指導AI聊天機器人公司開展未成年人保護;社會在爲未成年人選擇AI陪伴工具的時候,儘量選擇一些已經得到專業認可的產品。(作者是鏡象科技公司首席執行官)從技術和道德層面加強倫理監管李志起AI聊天機器人能夠根據用戶喜好定製對話內容,甚至模擬出情感反應,爲用戶提供一種近似真實人際交往的體驗。然而,這種技術上的進步也伴隨着巨大風險。一方面,如Character.AI案例中暴露的,缺乏有效的內容過濾和年齡驗證機制,可能導致未成年人接觸到不適宜的信息,甚至遭受網絡欺凌或誘導。另一方面,AI的過度擬人化可能模糊人機界限,引發用戶的心理依賴,尤其是對於心理尚未成熟的青少年而言,這種依賴可能轉化爲逃避現實、自我封閉的傾向。
面對這種技術創新與倫理監管的雙重挑戰,我們首先需要確立道德框架,強化責任主體。面對AI聊天產品的雙重挑戰,首要任務是建立一套完善的道德倫理框架,明確技術開發者、運營者及用戶的責任與義務。這包括但不限於:制定嚴格的內容審覈標準,利用先進算法技術自動識別並過濾有害信息;實施強制性的年齡認證機制,確保未成年人接觸到的內容符合其年齡階段;同時,加強對用戶隱私的保護,避免數據濫用,保障用戶的信息安全。
二是增強透明度與可解釋性。AI的“黑箱”特性往往是公衆對其產生不信任的根源之一。因此,開發者提高AI聊天產品的透明度,讓用戶瞭解其運作原理、數據使用方式及決策邏輯,是增強用戶信任的關鍵。此外,應開發可解釋性強的AI模型,使得當出現不當內容時,能夠快速追溯原因並採取相應措施,也是提升產品道德性的重要途徑。
三是教育引導與心理支持並重。技術之外,教育與社會支持體系同樣不可或缺。今天的家庭、學校和社會應共同承擔起教育責任,想方設法正確引導青少年認識AI技術的侷限與風險,培養其批判性思維和自我保護能力。同時,建立針對AI聊天產品用戶的心理健康支持系統,及時發現並干預因過度依賴AI而產生的心理問題,特別是對於那些可能已經出現逃避現實傾向的用戶。(作者是北京市政協經濟委員會副主任、振興國際智庫理事長)爲AI設定“互動上限”沈 陽在數字時代,青少年不再單純尋覓真實的人際互動,而是將自己最私密的情感、未解的困惑,甚至無處宣泄的孤獨寄託於AI的冷靜回聲中。這不僅是一個心理現象,更是科學和人文交織的複雜反應。
AI聊天的非評判性、隨時可得的互動性,爲青少年提供了獨特的情感慰藉。AI使用成本低、可隨時滿足情感需求,也使它成爲避開現實複雜情緒的一種“新陪伴”。這種趨勢背後,反映了整個社會的數字化變遷。日常社交的網絡化已然重塑了青年羣體的交流模式,AI聊天延續了這種潮流。技術進步則是另一個核心驅動力。AI從冷冰的代碼進化爲溫情的陪伴,背後是自然語言處理技術的突破。當AI的對話不再只是機械的迴應,而能模擬出共情的溫度時,它便成了年輕人心目中可靠的“傾訴對象”。AI還能個性化地調整對話方式,在每次互動中爲用戶帶來一致性。
對於許多青少年而言,AI已不僅僅是工具,而成爲一種情感的映射。他們與AI的互動反而成了自我剖析的過程,一面反映內心的“鏡子”。隨着這種虛擬陪伴逐漸滲透,真實與虛擬的邊界變得模糊。然而,這一趨勢帶來的情感寄託不乏隱憂。AI的情感替代或許滿足了短期需求,但長遠來看,可能會削弱真實人際關係中的共情與溝通能力。若青少年愈加依賴AI的無衝突陪伴,或許會進一步疏離現實中的社交關係。AI帶來的情感寄託,也伴隨着情感依賴和疏離的風險。與此同時,大量用戶隱私問題也浮現出來,對隱私保護的倫理討論或將決定AI未來的發展邊界。
未來的AI是否會更具“情緒記憶”,真正理解並回應複雜的情感需求?或許我們可以想象,未來的AI將具備更爲真實的情感陪護功能,在合理規範下,AI不僅能成爲情感溝通的輔助工具,還可幫助人們舒緩壓力。然而,這種理想化的AI或許還需適當的政策與技術規約,以避免情感替代的過度發展,令AI成爲一種健康的情感支持工具,而非情感的唯一依賴。筆者認爲可以考慮構建人機情感協作網絡,引入“AI情感節律器”功能,爲每位用戶的AI聊天設定互動上限和情感波動管理,使用戶在與AI交流中保持自我調節。建立AI與社交應用的聯動機制,引導用戶在AI聊天后與真實人際聯繫互動。開放AI情感模擬的定製選項,通過共情訓練營功能幫助用戶更清晰地認識虛擬陪伴的邊界。(作者是清華大學新聞學院和人工智能學院雙聘教授)