CNET科技資訊網(wǎng) 7月28日 北京消息:今天,阿里巴巴的“NASA大腦”iDST(Institute of Data Science Technology)表示,《Hierarchical Multimodal LSTM for Dense Visual-Semantic Embedding》入選2017年國際計(jì)算機(jī)視覺大會(huì)ICCV,即計(jì)算機(jī)視覺領(lǐng)域的頂級會(huì)議之一。
這也是阿里巴巴本月內(nèi)第三次公布論文入選國際頂級學(xué)術(shù)會(huì)議的好消息。
據(jù)了解,這篇論文涉及的是計(jì)算機(jī)視覺(Vision)和自然語言處理(Language)兩個(gè)獨(dú)立領(lǐng)域結(jié)合的學(xué)術(shù)研究,提出了對圖像(或圖像顯著區(qū)域)更為細(xì)致精確的描述,顯示出阿里巴巴在Vision&Language研究方向的持續(xù)挖掘。
該論文通過創(chuàng)新的多模態(tài)、層次化的遞歸神經(jīng)網(wǎng)絡(luò)(Hierarchical Multimodal LSTM)方法,可以將整個(gè)句子、句子中的短語、整幅圖像及圖像中的顯著區(qū)域同時(shí)嵌入語義空間,并且自動(dòng)學(xué)習(xí)出“句子-圖像”及“短語-圖像區(qū)域”間的對應(yīng)關(guān)系,生成包含更多形容詞的稠密語義空間,對圖像或圖像區(qū)域進(jìn)行更詳細(xì)和生動(dòng)的描述。
也就是說,計(jì)算機(jī)以后不僅能說“一只鳥站在樹枝上”,還能說出“一只羽翼未豐的小鳥站在春天抽芽的樹枝上”、“一只張嘴乞食的小鳥”、“一只小鳥站在抽芽的樹枝上,撲騰翅膀?qū)W習(xí)飛翔”這樣更為生動(dòng)復(fù)雜的句子。
論文作者介紹,這一研究將被用于“看圖說話(Image Captioning)”任務(wù)及其他頗有意義的應(yīng)用場景。如應(yīng)用于自動(dòng)導(dǎo)盲系統(tǒng),將拍攝的圖像轉(zhuǎn)換成文字和語音,以便提示盲人避障。
此外,還能用于“跨模態(tài)檢索(Cross-media Retrieval)”任務(wù),當(dāng)用戶在電商搜索引擎中輸入一段描述性文字如“夏季寬松波西米亞大擺沙灘裙”,系統(tǒng)就能為用戶提供最相關(guān)的商品。
ICCV全稱為IEEE International Conference on Computer Vision,與CVPR(計(jì)算機(jī)視覺模式識(shí)別會(huì)議)和ECCV(歐洲計(jì)算機(jī)視覺會(huì)議)并稱計(jì)算機(jī)視覺方向的三大頂級會(huì)議。
在本月早些時(shí)候,阿里巴巴先后發(fā)布三篇論文入選國際多媒體會(huì)議ACM MM,四篇論文入選國際計(jì)算機(jī)視覺與模式識(shí)別會(huì)議CVPR的消息。
今年3月,阿里巴巴宣布啟動(dòng)NASA計(jì)劃,要為未來20年研發(fā)核心科技。在這一計(jì)劃的號(hào)召下,阿里正在人工智能領(lǐng)域全面發(fā)力,在機(jī)器學(xué)習(xí)、視覺識(shí)別等領(lǐng)域不斷追趕世界頂尖的學(xué)術(shù)水平。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。