CNET科技資訊網(wǎng) 10月14日 北京消息(文/齊豐潤): 在物聯(lián)網(wǎng)大肆發(fā)展的當下,電視已經(jīng)成為了眾多廠商相繼發(fā)力的領(lǐng)域,究其原因,主要是其承擔了家庭娛樂中極其重要的地位,也可也說是家庭娛樂的重要入口之一。而隨著互聯(lián)網(wǎng)智能電視的發(fā)展,這一行業(yè)已從最早的純拼硬件的做法,如今已逐漸轉(zhuǎn)變成了發(fā)力內(nèi)容,以及操作系統(tǒng)的體驗之上。
近日,國廣東方(中國國際廣播電臺旗下負責“CIBN互聯(lián)網(wǎng)電視”的運營公司)在北京舉辦了2016 CIBN互聯(lián)網(wǎng)電視CAN UI新品發(fā)布會。本次發(fā)布會以“軟硬兼施”為主題。這意味著CIBN互聯(lián)網(wǎng)電視“多媒體融合、全媒體發(fā)展”戰(zhàn)略布局進入“軟件+硬件”融合新階段。
經(jīng)過5年多的積累,CIBN互聯(lián)網(wǎng)電視在內(nèi)容和服務(wù)方面都發(fā)展了可觀的用戶規(guī)模,同時還推出了自有終端品牌“看尚”,打造了軟件與硬件融合的全方位戰(zhàn)略布局。
軟件方面,看尚發(fā)布了基于TVOS 2.0的自主知識產(chǎn)權(quán)CAN UI智能電視系統(tǒng)。TVOS 2.0智能電視操作系統(tǒng)是由國家新聞出版廣電總局廣科院牽頭,聯(lián)合國廣東方在內(nèi)的六十多家TVOS工作組成員單位,共同打造的我國自主創(chuàng)新、安全可靠的新一代智能電視操作系統(tǒng)。
據(jù)介紹,該系統(tǒng)由300多人的專業(yè)團隊歷時21個月開發(fā)完成,以客戶體驗為基礎(chǔ),從大眾化到“千人千面”的個性化,完美融合智能電視的媒體屬性與工具屬性,并兼容我國自主研發(fā)的版權(quán)保護系統(tǒng)China DRM。
CIBN互聯(lián)網(wǎng)電視總編輯王堅平表示,“ CAN UI智能電視系統(tǒng)通過‘界面設(shè)計、內(nèi)容匯聚、商業(yè)實現(xiàn)、個性關(guān)懷、智能互動、安全私密、堅實基礎(chǔ)’七個層面的開發(fā),使智能電視真正成為智能家庭的核心平臺,為不同的家庭成員提供極致的全閉環(huán)體驗。”
而在硬件方面,CIBN互聯(lián)網(wǎng)電視推出了新品看尚超能電視X55,據(jù)介紹,這款新品是首款搭載CAN UI智能電視系統(tǒng)的互聯(lián)網(wǎng)電視產(chǎn)品,這也標志著CAN UI向大屏落地的推進。國廣東方副總經(jīng)理、環(huán)球智達總裁付強透露:“我們將持續(xù)推動CAN UI的用戶發(fā)展,除看尚超能電視X55外,CAN UI還將預(yù)裝在看尚超能云盒Z1上。好的操作系統(tǒng)加上好的終端設(shè)備才能決勝于未來。”
除了系統(tǒng)與硬件的雙向發(fā)力,內(nèi)容也是CIBN互聯(lián)網(wǎng)電視軟實力的重要組成部分。據(jù)透露,CIBN互聯(lián)網(wǎng)電視在搭建全球最有價值的中國文化海外傳播平臺,是面向全球華人及對中華文化感興趣的海外用戶、公司機構(gòu)提供基于電視端、移動端、PC 端的娛樂、生活、教育服務(wù)的平臺。
CIBN互聯(lián)網(wǎng)電視總編輯王堅平表示:“5年多的發(fā)展,CIBN互聯(lián)網(wǎng)電視不但在內(nèi)容、服務(wù)方面持續(xù)創(chuàng)新發(fā)展,更積極投身于互聯(lián)網(wǎng)電視終端產(chǎn)業(yè),并自主研發(fā)CAN UI智能電視系統(tǒng)。CIBN互聯(lián)網(wǎng)電視和看尚將緊密結(jié)合國際臺的資源優(yōu)勢、牌照優(yōu)勢,樹立勇于創(chuàng)新的精神,推出更多、更符合市場、服務(wù)于大眾的自主研發(fā)的互聯(lián)網(wǎng)智能終端產(chǎn)品。“
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟大學(xué)團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學(xué)習訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。