心理治療師會被人工智能取代嗎?

參考消息網1月17日報道 美國《新聞週刊》網站1月8日刊登一篇文章,標題爲《人工智能會取代治療師嗎?》,作者是卡琳·哈布。全文編譯如下:

對於從聊天生成預訓練轉換器(ChatGPT)獲取心理健康支持的日益依賴,正在改變人們化解情緒障礙的方式。

社交媒體上一個愈加明顯的潮流是人們把ChatGPT用作一種治療工具。用戶敘述與人工智能交流思想並獲得反饋或指導的經驗,並常常對人工智能似乎具備的洞察力和情商表示驚訝。

《新聞週刊》聯繫了心理學和技術領域的多名專家,就ChatGPT在不遠的將來是否具有取代治療師的能力展開討論。

俄勒岡大學計算機和信息科學系副教授丹尼爾·洛德:

自從60年前聊天機器人“伊麗莎”問世以來,人們發現與人工智能聊天可以獲得安慰。人們還發現通過寫日記、運動、祈禱、與信賴的朋友交談以及閱讀勵志書籍等可以獲得心理健康支持。儘管所有這些都替代不了優秀的治療師,但優秀的治療師難以找到。等待讓人煩悶,費用可能昂貴,而且適合某個人的治療師可能完全不適合另一個人。因此,如果人們能通過與ChatGPT或其他聊天機器人交談找到某種支持和想法,我覺得是很好的選擇。

阿姆斯特丹自由大學臨牀、神經和心理髮育學系榮譽退休教授皮姆·克伊佩爾斯:

我不認爲人工智能將取代治療師。對於人類支持和治療的需求將永遠存在,這種需求如此巨大,因此治療師人數將不會因爲人工智能而減少。

但人工智能將改變精神醫療保健。對某些人來說,一個人工智能治療師就夠用了(甚至比人類治療師更受歡迎),但對許多人來說這並不夠。不過,人工智能將以形形色色的方式帶來影響。

沒有任何人工智能將會取代治療師,但將大大改變和提升精神醫療保健。

多倫多城市大學媒體制作副教授理查德·拉赫曼:

面對提問,人工智能聊天機器人將像治療師那樣回答問題,但它們缺乏任何人類諮詢師或某種經過檢驗的專門軟件的監督、訓練或責任感。

不具備專業知識卻樂於談論專業話題,是大型語言模型的主要缺陷,也是對話界面的特徵:它們通過流利應答以及經過強化學習和人類響應建立起來的取悅對方的交談欲,製造出善解人意和本領高強的錯覺。

我們已經看到了遭遇危機的人們與側重營造關係的聊天機器人之間不安全且不健康的互動,而隨着它們更多地成爲我們互動場景的組成部分,這種情況將有增無減。

伊利諾伊大學厄巴納-尚佩恩分校哲學系副教授本·萊文斯坦:

對人工智能是否將取代治療師這個問題的回答不是簡單的肯定或否定——其本質在於理解人工智能將如何改變精神醫療保健的格局。

一些患者會繼續偏愛人類治療師,重視人際聯繫;另外一些患者可能會偏向人工智能系統,發現後者更易接近,並且感覺能夠在不擔心被人評判的情況下更加從容地說出自己內心最深處的掙扎。

人工智能治療大大降低的成本,加上隨時可用及無需候診的特點,將很可能加速這種變化。

然而,人工智能療法的興起也將帶來嚴重擔憂。一個關鍵問題是“對治療師挑肥揀瘦”現象——即患者只是挑選證實自己已有的看法、而不是提供具有挑戰性但卻必要的治療工作的治療師。

此外,有關人工智能系統如何處理涉及自殺想法或強制報告要求的情況,也存在複雜的倫理和法律問題。

哈佛大學醫學院精神病學副教授約翰·託勞斯:

人工智能取代不了治療師。在過去幾十年裡,我們有了許多出色的自我治療書籍、光盤、網站和應用程序。它們沒能取代治療師。人工智能可以做很多好事,但人們希望與其他人建立聯繫以討論治療。不過,人工智能將可以在提高療效和針對性方面起到支持作用。

人工智能的一個危險是,我們將看到最早一批沒有受過培訓、沒有執業資格的人,可能自稱治療師並提供治療。使用人工智能並不意味着任何人都可以當治療師,就像使用飛行模擬器並不意味着任何人都可以當飛行員。查問治療師的資質、經驗和培訓履歷永遠是正確的——在今天比以往任何時候都更爲正確。(編譯/曹衛國)