AI問答回饋不一定正確 7成錯誤資訊變成人類記憶
AI問答回饋不一定都正確!臺大跨國團隊示警:7成錯誤資訊成人類記憶。(示意圖/shutterstock)
現今日常生活中,人們時常在線上語音型智慧助理Google Assistant、Apple Siri或ChatGPT等AI對話引擎互動,但人工智慧反饋訊息是否全都可信呢?臺大心理系跨國研究團隊發現,人類會在與提供不實資訊的人型機器人交流後,將約7至8成機器人所提供的不實資訊,錯誤地指認爲真實資訊。這項研究成果刊登在20日出版的頂尖國際期刊《美國心理學家》,對大衆與AI對話引擎的開發者提出警告。
在AI對話引擎中,有些可能會從學習資料提取錯誤資訊(如網路謠言),有些可能因生成式AI的特性,而無中生有地產出不實迴應。不過,由於人類記憶力有限,不是所有接受到的資訊都會成爲記憶,而唯有成爲記憶的資訊纔會影響日常生活中的決策,因此即便AI對話引擎會散播不實資訊,但這些資訊絕大部分都成爲記憶,卻從未被量化研究。
爲了找到這起現象的真實面貌,臺大心理學系副教授黃從仁、研究生鄭羽嵐及美國藝術與科學院院士Suparna Rajaram,在國科會「前瞻及應用科技處」與臺大人工智慧與機器人研究中心所支持的實驗研究中發現,人類在跟會提供不實資訊的人型機器人交流後,會將約7至8成機器人所提供的不實資訊錯誤地指認爲真實資訊。
研究團隊指出,值得注意的是,因聳動資訊本就容易讓人印象深刻,此研究刻意採用不帶情緒或價值的中性資訊作爲實驗材料,但仍觀察到有很高比例的不實資訊形成假記憶。
研究也發現,從機器延伸到人的假記憶傳染,似乎是很難避免的,該現象的成因是人們普遍相信有完美記憶的機器人能提供正確的資訊。而根據分析結果,人們應對聊天機器人的輸出內容抱持適度戒心。此外,聊天機器人應儘量不要輸出錯誤的資訊。
如果想要達成上述目標,研究團隊建議,在技術上有幾種不同的實作方式,例如透過人工檢核的方式,剔除學習資料中的錯誤資訊,或是讓聊天機器人透過網路搜尋來先對答案進行事實查覈。若機器人無法確認自己答案的真確性,應該直接回答不知道而非聊勝於無地迴應。這些以人爲本的設計,才能讓人類在使用聊天引擎時能「役物/誤,而不役於物/誤。」