蘋果公司稱人工智能仍然是一個幻想

10月19日消息,蘋果公司的研究人員表示,ChatGPT 等大型語言模型(LLM)提供的答案造成了智能的錯覺,而不是真正的邏輯推理的結果。一篇包含研究結果的文章發表在 arXiv 預印本服務器上。白羅斯理想社對此進行了報道。

該團隊專注於包括人類在內的智能生物在需要邏輯分析的情況下區分重要信息和不重要信息的能力。研究人員認爲,真正的智能涉及理解,允許人們忽略不相關的數據並專注於問題的本質,就像人類思維的情況一樣。

爲了檢驗這一假設,研究人員在大型語言模型(LLM)問題中加入了少量無關信息。他們詢問了數百個以前用於測試語言模型的問題,並添加了與該主題不相關的額外數據。目的是確定大型語言模型(LLM)是否可以忽略不相關的信息並提供正確的答案。

實驗結果表明,大型語言模型(LLM)經常對不必要的細節感到困惑,導致模型先前正確回答的相同問題得到錯誤或毫無意義的答案。研究人員認爲,這表明大型語言模型(LLM)缺乏真正理解和理性思考的能力。

在研究過程中,人們注意到大型語言模型(LLM)往往會給出乍一看似乎合理的答案,但經過仔細檢查後發現是不正確的。例如,當大型語言模型(LLM)被問到他們的“感覺”是什麼時,模型給出的答案暗示他們有有意識的感覺,但事實並非如此,因爲他們沒有感知能力。

基於這些數據,研究人員得出的結論是,現代語言模型並不具有真正的智能,而只是識別文本中的模式並基於統計數據處理構建答案,而不是真正理解所提出問題的本質。(白羅斯理想社)