CNET科技資訊網(wǎng) 7月20日 北京消息:昨晚,百度聯(lián)手尤倫斯當(dāng)代藝術(shù)中心(UCCA)在“勞森伯格在中國(guó)”展覽現(xiàn)場(chǎng)舉辦了主題為“AI科技與藝術(shù)之夜”的活動(dòng)。百度通過人工智能技術(shù),將美國(guó)藝術(shù)大師羅伯特·勞森伯格(Robert Rauschenberg)的傳奇式巨作《四分之一英里畫作》的其中兩聯(lián)分別譜成了20余秒的鋼琴曲,實(shí)現(xiàn)了視覺向聽覺表達(dá)的轉(zhuǎn)化。這是百度首次嘗試將人工智能技術(shù)與視覺藝術(shù)和音樂創(chuàng)作相結(jié)合。
勞森伯格不僅是世界級(jí)藝術(shù)大師,也是藝術(shù)與科學(xué)“跨界實(shí)驗(yàn)”的先鋒。1966年,勞森伯格便試圖在藝術(shù)與科技之間搭建橋梁,參與創(chuàng)辦了“藝術(shù)與科技實(shí)驗(yàn)組織”(E.A.T.),以鼓勵(lì)藝術(shù)家與工程師之間的創(chuàng)造性對(duì)話。本次在UCCA展出的《四分之一英里畫作》創(chuàng)作歷經(jīng)17年,當(dāng)中吸納了這一時(shí)期先進(jìn)的科技元素,以全新的視角記錄了人類文明的發(fā)展進(jìn)程。
除了勞森伯格的畫作,梵高的《星夜》、徐悲鴻的《奔馬圖》也是機(jī)器創(chuàng)作的原材料。
據(jù)悉,百度此次展示的人工智能看圖譜曲技術(shù),是通過其全球最大規(guī)模的神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)算法由機(jī)器自主學(xué)習(xí)實(shí)現(xiàn)的。百度神經(jīng)網(wǎng)絡(luò)在“看到”圖像后,首先會(huì)對(duì)圖像進(jìn)行分析解讀,為圖像打上若干具象化的標(biāo)簽,然后通過搜索挖掘相關(guān)的音樂信息,對(duì)音樂拆分重組,再合成與圖片內(nèi)容相匹配的音樂旋律,最終拼接成完整的曲子。不過百度技術(shù)人員表示,神經(jīng)網(wǎng)絡(luò)目前的作曲水平還是初級(jí),樂曲中的和弦部分由人工干預(yù)實(shí)現(xiàn)。目前,全球范圍內(nèi)能夠?qū)崿F(xiàn)人工智能自動(dòng)譜曲的僅有百度和谷歌,而本次百度嘗試將圖像所體現(xiàn)的情感“移情”轉(zhuǎn)變?yōu)閹в新曇粜畔⒌募夹g(shù)則更為復(fù)雜。
這已不是百度第一次嘗試讓人工智能自主創(chuàng)作。早在2013年,百度就曾使用人工智能技術(shù)對(duì)用戶上傳的圖片進(jìn)行深度學(xué)習(xí),為用戶創(chuàng)作詩(shī)歌。在硬件方面,百度用上千臺(tái)PC服務(wù)器和近1000臺(tái)GPU服務(wù)器構(gòu)建了世界上規(guī)模最大的深度神經(jīng)網(wǎng)絡(luò),支持萬(wàn)億參數(shù)、千億樣本、千億特征訓(xùn)練;在算法上百度應(yīng)用了深度神經(jīng)網(wǎng)絡(luò)等分布式算法,支持的功能包括語(yǔ)音識(shí)別、圖像識(shí)別、自然語(yǔ)言處理等等。
未來(lái),百度人工智能技術(shù)將在更多領(lǐng)域展開嘗試,將情感分析和理解的成果應(yīng)用于產(chǎn)品中,提供個(gè)性化和精準(zhǔn)化的智能服務(wù)。
尤倫斯當(dāng)代藝術(shù)中心(UCCA)是一家位于北京798藝術(shù)區(qū)核心地帶的國(guó)際化藝術(shù)機(jī)構(gòu),每年展出豐富的展覽和教育項(xiàng)目。正在UCCA舉辦的大型藝術(shù)展“勞森伯格在中國(guó)”將持續(xù)到2016年8月21日。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。