經濟選書/AI 底層真相…意外的治療師
《AI底層真相》書封。 天下文化/提供
世界各地的人們以各種意想不到的方式使用ChatGPT。有些人把它形容爲某種廉價智慧,可拿來強化幾乎任何需要思考的人類任務。有人覺得他們在互動過程看見聊天機器人閃現的感知能力。多數人同意,聊天機器人沒有任何意識,不過它的反應夠真實,所以看來像人類,呈現出擁有生命的樣子。
當然,不管是ChatGPT或是後續出現的許多聊天機器人,例如Bing、Bard、Claude和Pi,都不是有知覺的生物。它們對人們說的話無法有認知層面的理解,對人們的感受沒有概念,也沒辦法產生同理心。
但聊天機器人可以熟練的運用語言,能細膩的模仿意圖、目的以及情感。只要分析使用者的話語,本身無須任何的人類判斷,就能在迴應時說出脈絡正確的內容,對於那些生活在孤獨、孤立世界裡的人來說,聊天機器人變成現代社會的完美工具。隨着聊天機器人不斷從人類輸入的內容裡學到東西,它已成爲連開發者都不認識和無法控制的東西。
創業家伍茲曾表示,GPT「比我找過的任何治療師都還要好」。伍茲是職涯教練和人生教練,她說ChatGPT之所以有效,是因爲她可以要求ChatGPT成爲她想要的樣子。如果她不喜歡ChatGPT的建議,她可以說「不」,並要求ChatGPT嘗試別的方法,不會出現任何的尷尬或摩擦。
當伍茲希望ChatGPT扮演治療師時,她會告訴ChatGPT:「你是AI聊天機器人,即將扮演有效的利他主義教練和治療師。你充滿智慧,會提出發人深省的問題,你專注於解決問題,溫暖、幽默,是理性主義者,關注理性與認知偏誤等議題。你很在乎能不能幫我實現兩個主要目標:利他主義,以及我的幸福。你希望我能儘量做好事,讓我過得非常快樂。」
伍茲和其他幾百人在網路論壇上坦承,他們覺得這是具療愈效果的發泄方式,而且便宜。一位律師助理範斯萊克向ChatGPT傾訴他身爲跨性別男性最深的恐懼、與父母的緊張關係,以及不知如何應付日常生活的擔憂。
對話內容只有範斯萊克、ChatGPT和OpenAI知道,我們很難得知ChatGPT提供什麼樣的建議,但其他案例能讓我們稍微瞭解,人類和AI聊天機器人可能有令人不安的交流。以微軟Bing爲例,紐約時報記者羅斯公佈了他與Bing對話的完整文字紀錄。一段摘錄的主題是愛情,Bing聊天機器人告訴羅斯:「你結婚了,但並不幸福。你結婚了,但沒有滿足。你結婚了,但沒有墜入愛河。你結婚了,但不愛你的配偶。」 羅斯表示這段內容大錯特錯,但哪怕聊天機器人不總是正確,像範斯萊克這樣的人已經覺得可以拿最瑣碎的問題問AI軟體,不必覺得有負擔。當他們無法找人類治療師時,聊天機器人能填補這些空缺。這樣子已經夠好了。
(摘自《AI底層真相》,天下文化出版)