全球領(lǐng)先的人工智能平臺公司商湯科技與實(shí)時3D內(nèi)容創(chuàng)作平臺Unity共同宣布,由雙方聯(lián)合主辦、中國增強(qiáng)現(xiàn)實(shí)核心技術(shù)產(chǎn)業(yè)聯(lián)盟指導(dǎo)的“2019 AR應(yīng)用創(chuàng)作大賽”正式啟動。大賽旨在幫助開發(fā)者更高效地挖掘AI技術(shù)在AR領(lǐng)域的應(yīng)用開發(fā)場景,以AI+AR創(chuàng)造更多創(chuàng)意內(nèi)容,推動應(yīng)用的創(chuàng)新與落地。
大賽將分為“文化娛樂”與“行業(yè)應(yīng)用”兩個組別,開發(fā)者即日起可登陸大賽官網(wǎng)報名并提交創(chuàng)意,優(yōu)秀作品及獲獎結(jié)果將在明年6月的Unite Shanghai 2020上進(jìn)行公布。獲獎團(tuán)隊(duì)不僅可贏取豐厚的獎金與官方證書,更將有機(jī)會與商湯科技和Unity開展業(yè)務(wù)合作,或得到相關(guān)崗位實(shí)習(xí)的機(jī)會,并在主辦方扶持下推動優(yōu)秀作品的方案落地。
商湯科技聯(lián)合創(chuàng)始人、移動智能事業(yè)群總裁王曉剛表示,“商湯科技已在AR內(nèi)容領(lǐng)域布局多年,早期通過直播軟件以及在互聯(lián)網(wǎng)娛樂領(lǐng)域?qū)I與AR進(jìn)行結(jié)合,并繼續(xù)在廣告營銷、文旅、游戲、導(dǎo)航等領(lǐng)域助力了多個爆款應(yīng)用,獲得了行業(yè)的廣泛認(rèn)可。借助與Unity的合作,可以讓更多的開發(fā)者認(rèn)識和感受商湯SenseAR 2.0平臺的技術(shù)優(yōu)勢。希望通過此次大賽,加速AR內(nèi)容的創(chuàng)新與應(yīng)用,并驅(qū)動AI+AR新生態(tài)的構(gòu)筑。”
Unity全球副總裁兼大中華區(qū)總經(jīng)理張俊波表示,“Unity作為全球頂尖的內(nèi)容創(chuàng)作引擎提供商,一貫關(guān)注應(yīng)用最新的技術(shù)推進(jìn)內(nèi)容創(chuàng)新,正如Unity一直提倡的品牌精神——創(chuàng)造者的存在讓世界變得更加美好。商湯科技恰恰在AI+AR領(lǐng)域不斷創(chuàng)新,積極構(gòu)建行業(yè)的全新生態(tài)。雙方在此基礎(chǔ)上強(qiáng)強(qiáng)聯(lián)合,能夠加倍放大市場音量,共同完善AR社區(qū),打造孕育殺手級AR應(yīng)用的搖籃。”
為推動AR技術(shù)在各行業(yè)應(yīng)用中的裂變,商湯科技在今年5月與Unity達(dá)成戰(zhàn)略合作,將商湯原創(chuàng)AR開發(fā)者平臺SenseAR 2.0與Unity引擎的Unity AR Foundation深度集?;陬I(lǐng)先的AI+AR技術(shù),SenseAR 2.0平臺可為AR開發(fā)者提供SLAM(同時定位與地圖構(gòu)建)、環(huán)境感知、尺度估計(jì)、多平面檢測、人臉和手勢識別與跟蹤、圖像識別與跟蹤、多人共享AR云服務(wù)等多種技術(shù)能力,而在平臺適配性、硬件需求、應(yīng)用開發(fā)、溝通維護(hù)、開發(fā)成本等各個方面,該平臺也擁有顯著優(yōu)勢,為開發(fā)者的內(nèi)容創(chuàng)作提供多維支持。
在本次大賽期間,商湯科技還將與Unity共同舉辦一系列開發(fā)者活動,由來自兩家公司及的專家?guī)椭_發(fā)者更加全面地了解、掌握和運(yùn)用商湯SenseAR 2.0平臺的各項(xiàng)先進(jìn)技術(shù)和功能。隨著雙方合作的穩(wěn)步推進(jìn),商湯科技與Unity也將攜手打通從技術(shù)引擎、開發(fā)平臺、開發(fā)者服務(wù)到應(yīng)用落地的整個鏈條,構(gòu)建驅(qū)動AR行業(yè)健康發(fā)展并不斷升級的生態(tài)閉環(huán)。
即日起,開發(fā)者即可登錄大賽主頁進(jìn)行報名:
https://connect.unity.com/challenges/2019ar-contest
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗(yàn)證有效性。