10月26日,快手正式內(nèi)測“AI小快”賬號,在短視頻評論區(qū)為用戶提供互動問答、圖片生成、攻略檢索、文案修改等多種基于短視頻應(yīng)用場景的AIGC服務(wù)。“AI小快”背后是快手自研大模型的強力支持,包括快手從零到一獨立自主研發(fā)的大規(guī)模語言模型“快意”大模型和文生圖大模型“可圖”。據(jù)悉,這是今年快手在評論區(qū)場景落地的首款人格化應(yīng)用,也集成了大語言模型和文生圖模型的能力,讓“AI小快”實現(xiàn)了“能說會畫”的能力。今年以來,快手加快了AIGC的技術(shù)布局。8月,快手宣布內(nèi)測自研大語言模型“快意”(KwaiYii),9月,快手推出了文生圖大模型“可圖”(Kolors),在大模型業(yè)務(wù)方面繼“文生文”之后又補上了“文生圖”這塊版圖。
短視頻評論區(qū)天然是一個用戶表達、互動、交流的公域場地,各品類內(nèi)容下均存在用戶表達和提問的訴求,而且用戶的提問類別豐富,覆蓋視頻內(nèi)容的討論交流、對專業(yè)信息的疑惑以及自我情緒的抒發(fā)等。在快手3.76億DAU的社區(qū)生態(tài)中,用戶的每一次表達,每一次提問,都是對社區(qū)的信任,背后都是對“被回應(yīng)”的期待。
為了更好的滿足用戶在評論區(qū)的訴求,讓用戶表達有途徑、互動有回應(yīng)、互動有驚喜,“AI小快”應(yīng)運而生。據(jù)了解,用戶在快手搜索“AI小快”即可申請參與內(nèi)測,獲得資格的用戶在短視頻評論區(qū)發(fā)布艾特@AI小快 的評論,便可收到@AI小快 的回復(fù)。“AI小快”不僅可以為用戶們的提問給出有效的答案和信息參考,且能在短視頻信息延展的基礎(chǔ)上,有效提升用戶之間的互動頻次和信息交互體驗。
值得一提的是,“AI小快”也具有自己的人設(shè),即一個有態(tài)度、有能力、有感情、有梗的四有AI賬號。無論是聊刷劇細節(jié)還是數(shù)理化難題,只要是用戶在評論區(qū)的評論,“AI小快”有問必答。同時,AI小快也是一個活潑友愛的聊天搭子,既能提供有效的情緒價值,也能根據(jù)網(wǎng)絡(luò)熱梗、時事熱點等信息隨時“造梗”,力求打造評論區(qū)的顯眼包。
據(jù)了解,“AI小快”的背后是快意大模型強大的理解、生成與交互能力的支持。本次發(fā)布的“AI小快”的能力已升級到了快意大模型的 66B 版本。這也是繼8月份快手發(fā)布快意13B模型后的又一次技術(shù)升級。更大規(guī)模的模型,也帶來了更強大的能力。
今年下半年以來,快手加快AIGC的布局。8月,快手宣布內(nèi)測自研大語言模型“快意”(KwaiYii),打造“全模態(tài)大模型AIGC解決方案”。基于自研的基座大模型,為用戶提供包括文本生成、圖像生成、3D素材生成、音頻生成、視頻生成等在內(nèi)的多種技術(shù)能力。其中,KwaiYii-13B在多個 Benchmark 上都處于領(lǐng)先水平,證明了其在自然語言處理任務(wù)中的出色性能。
基于目前在大模型的技術(shù)積累,快手已經(jīng)在搜索、評論等多個場景實現(xiàn)了應(yīng)用落地。7月8日,快手開啟智能問答產(chǎn)品的內(nèi)測;8月8日,啟動“AI對話”內(nèi)測,并于8月18日在快手App安卓版本開放內(nèi)測“快手AI對話”功能;9月15日,快手宣布在站內(nèi)短視頻評論開始內(nèi)測AI文生圖功能——快手AI玩評,用戶通過輸入各種創(chuàng)意文字,可一鍵生成海量風(fēng)格圖片,更便捷的在評論區(qū)進行趣味互動。
隨著AIGC商業(yè)落地迎來新一輪波峰,技術(shù)與產(chǎn)業(yè)的融合度及場景應(yīng)用豐富度在迅速提高。短視頻擁有龐大的用戶基礎(chǔ)和強大社交屬性,為AIGC的落地提供了更多應(yīng)用場景。未來,快手將持續(xù)深耕AI技術(shù),推動產(chǎn)品形態(tài)、用戶體驗發(fā)展,探索短視頻業(yè)務(wù)的第二曲線,推動其成為短視頻+直播平臺的基礎(chǔ)設(shè)施。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。