AI推理能力尚不足

(圖/freepik)

在近年來,人工智慧(AI)迅速發展,尤其是大型語言模型(LLMs)如OpenAI的GPT系列、Google的Gemma 2、Meta的Llama等,展示了在語言處理、推理能力以及解決問題方面的巨大潛力。但最近有一個研究報告揭露了這些語言模型在邏輯推理上的重大缺陷,進一步點出目前AI技術的侷限性與挑戰。

這份報告指出,雖然LLMs在某些測試中表現出色,但其實這些所謂的推理能力更像是「高級模式匹配」而非真正的邏輯推理。研究團隊特別針對一個廣爲使用的數學推理測試進行了詳細分析,指出由於該測試已成爲許多模型的訓練數據來源,這些模型或許早已掌握了答案,從而表現得比其實際能力更好。

爲了解決這一問題,研究人員開發了一個新的基準測試。這一測試保留了數學推理問題的本質,但更換變數(如人名、數字、問題複雜度)以及添加與問題無關的資訊,來檢驗模型是否真的具備推理能力。結果顯示,當這些變數發生變化時,所有模型的表現都顯著下降,特別是當引入不相關的細節時,模型的推理能力變得更加脆弱。

舉例來說,若一個問題包含一些無關的細節,模型往往會錯誤地將這些無關的細節納入計算,導致最終結果出錯。這反映出LLMs傾向於根據模式來解決問題,而非真正理解問題的本質。這也顯示出AI在推理過程中,容易被不相關的資訊誤導,無法區分哪些細節是解決問題所需的,哪些是無關的。

過去幾年,LLMs被認爲是解決複雜問題、提供答案的理想工具。但這些研究結果提醒我們,當前的AI技術距離真正的「通用人工智慧」尚有一段距離。實際上,許多AI模型仍然依賴「訓練數據中的模式匹配」,而不是如人類般能夠靈活應對各種變化、進行推理的能力。

要真正實現具備推理能力的AI,模型需要從單純的模式匹配轉向真正的邏輯推理。這意味着未來AI不僅僅是依靠數據進行學習,更需要理解問題的本質,能夠靈活應對不同的情境變化。

這一研究對於目前市場上的AI技術應用也具有警示作用。許多企業和機構在導入AI技術時,可能會過於依賴這些語言模型的能力,而忽視其潛在的缺陷。例如,金融、醫療、法律等需要高精度推理的領域,若過度依賴當前的AI技術,可能會導致誤判或錯誤決策。因此企業在應用這些技術時,應該保持謹慎,並且應該將AI的結果與人類的專業判斷相結合,以確保決策的準確性。

目前的LLMs雖然在語言處理上展示了非凡的能力,但在邏輯推理方面仍存在重大缺陷。這提醒我們,在AI的快速發展浪潮中,仍需保持理性與謹慎。

(作者爲臺北商業大學前校長)