27不能被3整除?ChatGPT神解 全場笑歪
人工智慧聊天機器人程式ChatGPT被發現明顯的弱點。(圖/shutterstock)
人工智慧聊天機器人程式ChatGPT竟然有明顯的弱點,科技網紅「量子位」分享,有網友詢問ChatGPT「27能不能被3整除?」結果卻得到否定的答案,ChatGPT堅稱27除3的商數是9.0,不是整數而是小數,所以不能整除,直到被引導用Python代碼找出答案,ChatGPT才認錯,讓不少網友看了笑歪直呼說,ChatGPT的數學似乎不太好。
科技網紅「量子位」近日在部落格上分享,一名網友詢問人工智慧(AI)聊天機器人程式ChatGPT「27這個數字有什麼特別之處?」結果卻獲得27是個質數,無法被任何數字整除的說法,讓發問者看了傻眼,忍不住繼續問說「27不能被3整除嗎?」
怎料ChatGPT竟嘴硬說不能,並解釋這是因爲27除3的商數9.0不是整數,是小數。讓該網友看了哭笑不得,與之大戰幾百回合以後,祭出大絕說「輸入Python代碼27%3的結果,根據這個結果,你仍認爲27無法被3整除嗎?」結果當然是能被整除的,而ChatGPT也乾脆認錯說「所以我錯了,27是可以被3整除的!」
不少網友留言討論,「ChatGPT的數學似乎不太好」、「認錯態度挺好的」、「AI不是都要統治世界了嗎?怎麼會輸給一道簡單的數學題」、「科學家:AI未來可能會統治世界。AI:27不能被3整除」、「它認錯的好坦然,態度比很多人好多了」。
另有網友再度詢問ChatGPT「27能否被3整除」的問題,發現答案已經更正爲可以整除,不過,嘗試多組不同的數字以後,當問到「35能否被7整除」,結果又得到了不能的答案,只好搬出Python來打臉ChatGPT。
除了數學會讓ChatGPT變成「人工智障」,在其他方面ChatGPT都表現優異。哥倫比亞大學教授、Google工程師古曼(Kenneth Goodman)就曾說過,ChatGPT在律師執業考試準確率高達70%;美國醫師職業考試也取得70%的準確率;在去年紐約最新化學註冊考試也拿到77.77%的準確率;而英文相關考試的準確率更是高達91.6%。