右上角AI圖標(biāo)即可進(jìn)入產(chǎn)品首頁,選擇輸入內(nèi)容對(duì)話或點(diǎn)擊引導(dǎo)問題便可開啟對(duì)話,或者觸發(fā)「搜索智能問答」卡片,通過底部入口可以啟用該功能。
據(jù)悉,“快手AI對(duì)話”依托于快手站內(nèi)多元和有生命力的社區(qū)內(nèi)容生態(tài),通過互動(dòng)對(duì)話的形式,可以幫助用戶快速查找短視頻、達(dá)人、百科等內(nèi)容,體驗(yàn)全新的信息獲取形態(tài)。同時(shí),利用大模型背后海量的數(shù)據(jù)知識(shí),“快手AI對(duì)話”為快手搜索打破了站內(nèi)內(nèi)容的生態(tài)壁壘,有望為提供全網(wǎng)檢索服務(wù),為用戶提供全新的信息獲取形態(tài)。
和傳統(tǒng)大模型相比,快手AI對(duì)話是對(duì)于搜索新場(chǎng)景的探索。一方面將快手站內(nèi)大量的內(nèi)容資源作為索引,解決大語言模型AI幻覺的問題,提升回答準(zhǔn)確性;另一方面也用更加有效地資源組織形式滿足用戶多元化需求,不僅覆蓋生活常識(shí)、服務(wù)查詢等內(nèi)容,用戶還可以進(jìn)行追問,在個(gè)性化的場(chǎng)景中尋找到更適合自己的搜索結(jié)果。
借助大模型的能力,快手已經(jīng)在多個(gè)應(yīng)用場(chǎng)景開始新產(chǎn)品及功能的探索。此前,7月8日,快手宣布正在內(nèi)測(cè)智能問答產(chǎn)品,在搜索場(chǎng)景中為用戶帶來智能問答和文本創(chuàng)作等新功能。8月8日,“快手AI對(duì)話”開啟小范圍測(cè)試,以搜索場(chǎng)景為入口,為用戶提供更多元、便捷的搜索形態(tài),大為降低用戶的搜索使用門檻,讓新技術(shù)帶來的便利惠及更廣泛的人群。據(jù)悉,這是短視頻直播行業(yè)首個(gè)基于大語言模型落地的應(yīng)用產(chǎn)品。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。