這項(xiàng)由廈門大學(xué)多媒體可信感知與高效計(jì)算教育部重點(diǎn)實(shí)驗(yàn)室的連書銓、吳雨航、馬佳等研究人員完成的研究發(fā)表于2025年7月的arXiv預(yù)印本平臺(tái),論文編號(hào)為arXiv:2507.22025v2。感興趣的讀者可以通過該編號(hào)在arXiv上找到完整論文。這項(xiàng)名為"UI-AGILE"的研究為我們展示了一個(gè)令人驚嘆的成果:如何讓人工智能像人類一樣準(zhǔn)確地操作電腦界面。
在我們的日常生活中,操作電腦已經(jīng)變成了一件再自然不過的事情。你想點(diǎn)擊某個(gè)按鈕時(shí),眼睛會(huì)自動(dòng)找到它,手指會(huì)精準(zhǔn)地移動(dòng)到正確位置。但對(duì)于人工智能來說,這個(gè)看似簡(jiǎn)單的過程卻充滿了挑戰(zhàn)。就像教一個(gè)從未見過電腦的人如何使用鼠標(biāo)一樣,AI需要學(xué)會(huì)"看懂"屏幕上的內(nèi)容,理解用戶的指令,然后準(zhǔn)確地執(zhí)行操作。
現(xiàn)在的AI系統(tǒng)在操作圖形用戶界面時(shí)經(jīng)常遇到三個(gè)棘手問題。第一個(gè)問題就像一個(gè)過度思考的學(xué)生——當(dāng)AI試圖進(jìn)行復(fù)雜的推理時(shí),反而會(huì)降低找到正確位置的準(zhǔn)確性,但如果完全不思考,又無法正確判斷該執(zhí)行什么類型的操作。第二個(gè)問題則像是一個(gè)得不到有效反饋的學(xué)習(xí)者,現(xiàn)有的訓(xùn)練方法經(jīng)常給AI提供過于簡(jiǎn)單的"對(duì)"或"錯(cuò)"的評(píng)價(jià),這就像告訴學(xué)生"答案不對(duì)"卻不說哪里錯(cuò)了一樣,無法幫助AI學(xué)會(huì)精確定位。第三個(gè)問題如同在嘈雜環(huán)境中尋找特定聲音,即使訓(xùn)練良好的AI也經(jīng)常在高分辨率屏幕上被大量無關(guān)信息干擾,導(dǎo)致無法準(zhǔn)確找到目標(biāo)位置。
面對(duì)這些挑戰(zhàn),廈門大學(xué)的研究團(tuán)隊(duì)開發(fā)出了UI-AGILE這套全新的框架。這個(gè)框架就像是為AI設(shè)計(jì)的一套完整訓(xùn)練教程,不僅改進(jìn)了AI的學(xué)習(xí)過程,還優(yōu)化了它在實(shí)際操作中的表現(xiàn)。研究團(tuán)隊(duì)的創(chuàng)新之處在于同時(shí)解決了訓(xùn)練和應(yīng)用兩個(gè)階段的關(guān)鍵問題,讓AI既能學(xué)得更好,也能用得更準(zhǔn)。
整個(gè)研究過程可以比作培養(yǎng)一位優(yōu)秀的電腦操作員。在培訓(xùn)階段,研究團(tuán)隊(duì)設(shè)計(jì)了三種特殊的訓(xùn)練方法。首先是"簡(jiǎn)單思考"策略,這就像教學(xué)生在解題時(shí)保持適度的思考深度——既不要想得太復(fù)雜影響效率,也不能完全不動(dòng)腦筋。然后是連續(xù)評(píng)分獎(jiǎng)勵(lì)機(jī)制,這種方法不再簡(jiǎn)單地說"對(duì)"或"錯(cuò)",而是會(huì)根據(jù)AI點(diǎn)擊位置離目標(biāo)中心的遠(yuǎn)近程度給出不同的分?jǐn)?shù),越接近目標(biāo)中心得分越高。最后是基于裁剪的重采樣策略,當(dāng)AI在某個(gè)復(fù)雜界面上屢次失敗時(shí),系統(tǒng)會(huì)自動(dòng)將界面裁剪成更簡(jiǎn)單的版本,讓AI能夠逐步學(xué)會(huì)處理復(fù)雜情況。
在實(shí)際應(yīng)用階段,研究團(tuán)隊(duì)創(chuàng)造性地提出了"分解定位與選擇"的方法。這個(gè)方法的工作原理就像是讓多個(gè)助手同時(shí)在不同區(qū)域?qū)ふ夷繕?biāo),然后由一個(gè)經(jīng)驗(yàn)豐富的判官來決定哪個(gè)助手找到了最正確的答案。具體來說,系統(tǒng)會(huì)將高分辨率的屏幕截圖分割成幾個(gè)較小的子圖像,讓AI分別在每個(gè)子圖像上尋找目標(biāo)位置,然后使用另一個(gè)專門的AI模型來判斷哪個(gè)候選位置最符合用戶的指令。
為了驗(yàn)證這套方法的效果,研究團(tuán)隊(duì)在兩個(gè)專業(yè)的測(cè)試平臺(tái)上進(jìn)行了大規(guī)模實(shí)驗(yàn)。這些測(cè)試就像是給AI舉辦的"電腦操作技能大賽",需要AI在各種不同的應(yīng)用程序和操作系統(tǒng)中完成復(fù)雜的任務(wù)。結(jié)果顯示,使用UI-AGILE方法的AI在定位準(zhǔn)確性上比之前最好的方法提升了23%,這個(gè)提升幅度在AI領(lǐng)域算得上是顯著的突破。
更令人驚喜的是,這套方法展現(xiàn)出了極強(qiáng)的通用性。研究團(tuán)隊(duì)發(fā)現(xiàn),他們的"分解定位與選擇"方法可以像插件一樣安裝到其他現(xiàn)有的AI系統(tǒng)上,立即提升這些系統(tǒng)的表現(xiàn)。這就像是發(fā)明了一副神奇眼鏡,任何AI戴上后都能看得更清楚、定位更準(zhǔn)確。
在訓(xùn)練效率方面,UI-AGILE也表現(xiàn)出了驚人的優(yōu)勢(shì)。研究團(tuán)隊(duì)只使用了大約9000個(gè)訓(xùn)練樣本,經(jīng)過2輪訓(xùn)練,就達(dá)到了其他方法需要更多數(shù)據(jù)和訓(xùn)練時(shí)間才能達(dá)到的效果。這種高效性對(duì)于實(shí)際應(yīng)用具有重要意義,意味著開發(fā)者可以用更少的資源訓(xùn)練出更好的AI助手。
研究團(tuán)隊(duì)還進(jìn)行了詳細(xì)的分析,發(fā)現(xiàn)他們的方法在不同類型的任務(wù)中都有穩(wěn)定的改善效果。無論是簡(jiǎn)單的點(diǎn)擊操作,還是復(fù)雜的多步驟任務(wù),AI的表現(xiàn)都得到了明顯提升。特別是在處理專業(yè)軟件界面時(shí),這種提升更加顯著,這為AI在辦公自動(dòng)化、設(shè)計(jì)輔助等領(lǐng)域的應(yīng)用開辟了新的可能性。
從技術(shù)角度來看,UI-AGILE的成功在于它巧妙地平衡了多個(gè)看似矛盾的需求。既要讓AI進(jìn)行必要的思考以做出正確決策,又要避免過度思考影響精確定位;既要提供詳細(xì)的學(xué)習(xí)反饋,又要保持訓(xùn)練過程的高效性;既要處理復(fù)雜的高分辨率界面,又要避免信息過載的問題。這種平衡藝術(shù)展現(xiàn)了研究團(tuán)隊(duì)深厚的技術(shù)功底和創(chuàng)新思維。
在實(shí)際應(yīng)用的推理時(shí)間分析中,研究團(tuán)隊(duì)發(fā)現(xiàn)他們的方法雖然需要處理多個(gè)子圖像,但由于每個(gè)子圖像都比原始圖像小很多,實(shí)際的計(jì)算時(shí)間增長(zhǎng)并不明顯。這種設(shè)計(jì)充分考慮了實(shí)用性,確保方法不僅效果好,而且能夠在現(xiàn)實(shí)環(huán)境中高效運(yùn)行。
這項(xiàng)研究的意義遠(yuǎn)超技術(shù)層面的突破。隨著人工智能逐漸滲透到我們生活的各個(gè)方面,能夠自然地與圖形界面交互的AI將為我們帶來前所未有的便利。設(shè)想一下,當(dāng)你需要處理大量重復(fù)的電腦操作時(shí),AI助手可以完全理解你的意圖,準(zhǔn)確地執(zhí)行每一步操作;當(dāng)老年人或身體不便的人士需要使用復(fù)雜軟件時(shí),AI可以成為他們的得力助手;在教育場(chǎng)景中,AI可以演示軟件操作過程,幫助學(xué)生更好地學(xué)習(xí)各種計(jì)算機(jī)技能。
說到底,UI-AGILE代表的不僅僅是一項(xiàng)技術(shù)進(jìn)步,更是人工智能向真正智能化邁進(jìn)的重要一步。它讓我們看到了AI與人類協(xié)作的美好前景——不是替代人類,而是成為更好的工具和伙伴。這種技術(shù)的成熟將推動(dòng)整個(gè)人工智能行業(yè)向更實(shí)用、更智能的方向發(fā)展,最終讓每個(gè)普通用戶都能享受到AI帶來的便利。
當(dāng)然,這項(xiàng)研究也為未來的發(fā)展指明了方向。研究團(tuán)隊(duì)提到,他們計(jì)劃進(jìn)一步優(yōu)化選擇模型的性能,通過專門的訓(xùn)練讓AI在判斷候選位置時(shí)更加準(zhǔn)確。這種持續(xù)改進(jìn)的態(tài)度展現(xiàn)了科研工作者的嚴(yán)謹(jǐn)精神,也預(yù)示著這項(xiàng)技術(shù)還有更大的發(fā)展?jié)摿Α?/p>
對(duì)于普通人來說,這項(xiàng)研究的成果可能很快就會(huì)出現(xiàn)在我們?nèi)粘J褂玫母鞣N軟件和設(shè)備中。從智能手機(jī)的語音助手到電腦上的自動(dòng)化工具,再到各種專業(yè)軟件的AI輔助功能,UI-AGILE的技術(shù)將讓這些應(yīng)用變得更加智能和易用。這不是遙遠(yuǎn)的科幻想象,而是即將到來的現(xiàn)實(shí)改變。想要深入了解技術(shù)細(xì)節(jié)的讀者,可以通過arXiv:2507.22025v2這個(gè)編號(hào)找到完整的研究論文,相信會(huì)有更多收獲。
Q&A
Q1:UI-AGILE是什么?它解決了什么問題?
A:UI-AGILE是廈門大學(xué)開發(fā)的一套讓人工智能學(xué)會(huì)操作電腦界面的訓(xùn)練框架。它主要解決了三個(gè)問題:AI在推理時(shí)影響定位精度、訓(xùn)練反饋過于簡(jiǎn)單無法學(xué)會(huì)精確定位、高分辨率屏幕上的視覺干擾問題。通過"簡(jiǎn)單思考"策略、連續(xù)評(píng)分機(jī)制和界面分解技術(shù),讓AI能夠像人類一樣準(zhǔn)確操作各種軟件界面。
Q2:這套方法的訓(xùn)練效果如何?能提升多少性能?
A:UI-AGILE在專業(yè)測(cè)試中比之前最好的方法提升了23%的定位準(zhǔn)確率,而且只需要9000個(gè)訓(xùn)練樣本和2輪訓(xùn)練就能達(dá)到優(yōu)異效果。更重要的是,它的"分解定位與選擇"技術(shù)可以直接應(yīng)用到其他現(xiàn)有AI系統(tǒng)上,立即提升它們的界面操作能力,展現(xiàn)出很強(qiáng)的通用性。
Q3:普通人什么時(shí)候能用到這項(xiàng)技術(shù)?
A:這項(xiàng)技術(shù)很快就會(huì)出現(xiàn)在我們?nèi)粘J褂玫母鞣N軟件中。從智能手機(jī)的語音助手到電腦自動(dòng)化工具,再到各種專業(yè)軟件的AI輔助功能,都會(huì)因?yàn)檫@項(xiàng)技術(shù)變得更智能易用。特別是對(duì)老年人、身體不便人士或需要處理大量重復(fù)操作的用戶來說,這種AI助手將帶來顯著的便利。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對(duì)話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。