CNET科技資訊網(wǎng) 7月20日 北京消息:昨晚,百度聯(lián)手尤倫斯當(dāng)代藝術(shù)中心(UCCA)在“勞森伯格在中國”展覽現(xiàn)場舉辦了主題為“AI科技與藝術(shù)之夜”的活動。百度通過人工智能技術(shù),將美國藝術(shù)大師羅伯特·勞森伯格(Robert Rauschenberg)的傳奇式巨作《四分之一英里畫作》的其中兩聯(lián)分別譜成了20余秒的鋼琴曲,實(shí)現(xiàn)了視覺向聽覺表達(dá)的轉(zhuǎn)化。這是百度首次嘗試將人工智能技術(shù)與視覺藝術(shù)和音樂創(chuàng)作相結(jié)合。
勞森伯格不僅是世界級藝術(shù)大師,也是藝術(shù)與科學(xué)“跨界實(shí)驗(yàn)”的先鋒。1966年,勞森伯格便試圖在藝術(shù)與科技之間搭建橋梁,參與創(chuàng)辦了“藝術(shù)與科技實(shí)驗(yàn)組織”(E.A.T.),以鼓勵藝術(shù)家與工程師之間的創(chuàng)造性對話。本次在UCCA展出的《四分之一英里畫作》創(chuàng)作歷經(jīng)17年,當(dāng)中吸納了這一時期先進(jìn)的科技元素,以全新的視角記錄了人類文明的發(fā)展進(jìn)程。
除了勞森伯格的畫作,梵高的《星夜》、徐悲鴻的《奔馬圖》也是機(jī)器創(chuàng)作的原材料。
據(jù)悉,百度此次展示的人工智能看圖譜曲技術(shù),是通過其全球最大規(guī)模的神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)算法由機(jī)器自主學(xué)習(xí)實(shí)現(xiàn)的。百度神經(jīng)網(wǎng)絡(luò)在“看到”圖像后,首先會對圖像進(jìn)行分析解讀,為圖像打上若干具象化的標(biāo)簽,然后通過搜索挖掘相關(guān)的音樂信息,對音樂拆分重組,再合成與圖片內(nèi)容相匹配的音樂旋律,最終拼接成完整的曲子。不過百度技術(shù)人員表示,神經(jīng)網(wǎng)絡(luò)目前的作曲水平還是初級,樂曲中的和弦部分由人工干預(yù)實(shí)現(xiàn)。目前,全球范圍內(nèi)能夠?qū)崿F(xiàn)人工智能自動譜曲的僅有百度和谷歌,而本次百度嘗試將圖像所體現(xiàn)的情感“移情”轉(zhuǎn)變?yōu)閹в新曇粜畔⒌募夹g(shù)則更為復(fù)雜。
這已不是百度第一次嘗試讓人工智能自主創(chuàng)作。早在2013年,百度就曾使用人工智能技術(shù)對用戶上傳的圖片進(jìn)行深度學(xué)習(xí),為用戶創(chuàng)作詩歌。在硬件方面,百度用上千臺PC服務(wù)器和近1000臺GPU服務(wù)器構(gòu)建了世界上規(guī)模最大的深度神經(jīng)網(wǎng)絡(luò),支持萬億參數(shù)、千億樣本、千億特征訓(xùn)練;在算法上百度應(yīng)用了深度神經(jīng)網(wǎng)絡(luò)等分布式算法,支持的功能包括語音識別、圖像識別、自然語言處理等等。
未來,百度人工智能技術(shù)將在更多領(lǐng)域展開嘗試,將情感分析和理解的成果應(yīng)用于產(chǎn)品中,提供個性化和精準(zhǔn)化的智能服務(wù)。
尤倫斯當(dāng)代藝術(shù)中心(UCCA)是一家位于北京798藝術(shù)區(qū)核心地帶的國際化藝術(shù)機(jī)構(gòu),每年展出豐富的展覽和教育項(xiàng)目。正在UCCA舉辦的大型藝術(shù)展“勞森伯格在中國”將持續(xù)到2016年8月21日。
好文章,需要你的鼓勵
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運(yùn)動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運(yùn)動質(zhì)量,在多項(xiàng)測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。