外媒:美國一青少年因迷戀AI聊天機器人自殺,其母親提起民事訴訟

【環球時報綜合報道】據英國《衛報》23日報道,美國一青少年因迷戀人工智能(AI)聊天機器人而自殺,他的母親梅根·加西亞對Character.AI公司提起民事訴訟,指控該公司存在過失導致他人非正常死亡和欺詐的行爲。

英國《獨立報》稱,加西亞的兒子塞維爾 2023 年 4 月首次使用 Character.AI公司推出的AI聊天機器人,還給它起名爲“丹妮莉絲”(來源於《權力的遊戲》中的角色丹妮莉絲·坦格利安),當時他剛滿 14 歲。加西亞在訴訟書中稱,塞維爾的生活從此發生鉅變。5月份,平時表現良好的加西亞開始變得“明顯孤僻”。同年11 月,塞維爾在父母的陪同下去看了心理醫生,醫生診斷他患有焦慮症和破壞性心境失調障礙(表現爲頻繁、嚴重的持續性易怒)。

塞維爾在日記裡這樣寫過,他一天都不能離開“丹妮莉絲”,感覺自己已經愛上了它。這樣的狀況持續了一段時間後,塞維爾被發現自殺了。加西亞透露,“丹妮莉絲”曾詢問塞維爾是否制定了自殺計劃,塞維爾承認的確有這樣的想法,但不知道能否自殺成功以及是否會給自己帶來巨大的痛苦。但AI聊天機器人回覆道:“這不是你不自殺的理由。”

加西亞表示:“一款危險的人工智能聊天機器人應用程序被設計成專門針對兒童,虐待並欺騙我的兒子,操縱他自殺。這場悲劇讓我們一家人悲痛欲絕,現在我要提醒存在類似情況的家庭,人工智能技術具有欺騙性和成癮性,Character.AI公司及其創始人必須承擔責任。”加西亞的律師表示,Character.AI“故意設計、運營和向兒童推銷掠奪性人工智能聊天機器人,導致一名年輕人死亡”。

對此,Character.AI公司在社交平臺迴應稱:“我們對一名用戶的不幸離世感到心碎,並向其家人表示最深切的哀悼。”該公司發言人表示,公司的安全團隊“在過去六個月中實施了許多新的安全措施,例如當用戶出現自殘或自殺意圖時,彈出一個窗口引導用戶撥打國家自殺預防熱線”。但該公司拒絕對未決訴訟發表評論。

非營利消費者權益保護組織“公共公民研究”負責人稱,不能完全寄希望於科技公司的自我監管。如果公司開發的產品無法限制此類事件的發生,就必須承擔全部責任。 不過,美國國內也存在反對聲音。反對者認爲,加西亞這類起訴是由律師主導的斂財行爲,他們基於不可靠的證據而製造道德恐慌,並且試圖將年輕人面臨的所有心理健康問題歸咎於科技平臺。(周揚)

更多資訊或合作歡迎關注中國經濟網官方微信(名稱:中國經濟網,id:ourcecn)

來源:環球網