用GPT-4V“操縱”iPhone,無需訓練可完成任意指令
一項研究發現:
無需任何訓練,GPT-4V就能直接像人類一樣與智能手機進行交互,完成各種指定命令。
比如讓它在50-100美元的預算內購買一個打奶泡的工具。
它就能像下面這樣一步一步地完成選擇購物程序(亞馬遜)並打開、點擊搜索欄輸入“奶泡器”、找到篩選功能選擇預算區間、點擊商品並完成下單這一系列共計9個操作。
根據測試,GPT-4V在iPhone上完成類似任務的成功率可達75%。
因此,有人感嘆有了它,Siri漸漸就沒有用武之地了(比Siri更懂iPhone)
誰知有人直接擺擺手:
Siri壓根兒一開始就沒這麼強好嘛。(狗頭)
還有人看完直呼:
真的這麼?
GPT-4V零樣本操作iPhone
這項研究來自加州大學聖地亞哥分校、微軟等機構。
它本身是開發了一個MM-Navigator,也就是一種基於GPT-4V的agent,用於開展智能手機用戶界面的導航任務。
實驗設置
在每一個時間步驟,MM-Navigator都會得到一個屏幕截圖。
作爲一個多模態模型,GPT-4V接受圖像和文本作爲輸入併產生文本輸出。
在這裡,就是一步步讀屏幕截圖信息,輸出要操作的步驟。
現在的問題就是:
如何讓模型合理地計算出給定屏幕上應該點擊的準確位置座標(GPT-4V只能給出大概位置)。
作者給出的解決辦法非常簡單,通過OCR工具和IconNet檢測每一個給定屏幕上的UI元素,並標記不同的數字。
這樣一來,GPT-4V就只需面對一張截圖指出要點什麼數字進行操作就好。
兩項能力測試
測試率先在iPhone上展開。
要想成功操縱手機涉及到GPT-4V不同類型的屏幕理解能力:
一個是語義推理,包括理解屏幕輸入和闡明完成給定指令所需的動作。
一個是指出每一個動作應執行的精確位置(即該點哪個數字)的能力。
因此,作者開發了兩組測試分別進行區分。
1、預期動作描述
只輸出應該幹啥,不輸出具體座標。
在這個任務中,GPT-4V理解指令並給出操作步驟的準確率爲90.9%。
比如在下面這個Safari瀏覽器的截圖中,用戶想要打開一個新標籤頁,但左下角的+號是灰色的,應該怎麼辦?
GPT-4V回答:
看圖理解表現得很不錯~更多例子可以翻閱論文。
2、本地化動作執行
當讓GPT-4V把這些“紙上談兵”都化爲具體行動時(即第二個測試任務),它的正確率有所下降,來到74.5%。
還是上面的例子,它可以遵循自己給出的指令,給出正確的操作數字,比如點擊數字9關閉一個標籤頁。
但如下圖所示,讓它找一個可以識別建築物的應用程序時,它可以準確指出用ChatGPT,但是卻給出了錯誤數字“15”(應該是“5”)。
還有的錯誤是因爲屏幕截圖本身就沒有標出對應位置。
比如讓它從下面的圖中開啓隱身模式,直接給了wifi處於的“11”位置,完全不搭嘎。
此外,除了這種簡單的單步任務,測試也發現GPT-4V完全可以不需訓練就勝任“買起泡器”這樣的複雜指令。
在這個過程中,我們可以看到GPT-4V事無鉅細地列出每一步該幹什麼,以及對應的數字座標。
最後,是安卓手機上的測試。
整體來看,比其他模型比如Llama 2、PaLM 2和ChatGPT表現得明顯要好。
在執行安裝、購物等任務中的總體表現最高得分爲52.96%,這些基線模型最高才39.6%。
對於整個實驗來說,它最大的意義是證明多模態模型比如GPT-4V能夠將能力直接遷移到未見過的場景,展現出進行手機交互的極大潛力。
值得一提的是,網友看完這項研究也提出了兩個點:
一是我們如何定義任務執行的成功與否。
比如我們想讓它買洗手液補充裝,只想要一袋,它卻加購了六袋算成功嗎?
二是大夥也不能興奮得太早,要想真的商用這項技術,前進空間還很大。
因爲,準確率可達95%的Siri都還經常被吐槽很差勁呢。
團隊介紹
本研究一共12位作者,基本都來自微軟。
共同一作兩位。
分別是加州大學聖地亞哥分校的博士生An Yan,以及微軟的高級研究員Zhengyuan Yang,後者本科畢業於中科大,博士畢業於羅切斯特大學。
參考鏈接:[1]https://arxiv.org/abs/2311.07562[2]https://x.com/emollick/status/1724272391595995329?s=20