2015年6月25日,中國,北京——智能遙控(Smart Remote)應用開發(fā)商Peel今日迎來又一重要里程碑,其智能遙控應用自2012年發(fā)布以來,遙控指令處理次數(shù)已經(jīng)累計突破1000億次。其中半數(shù)的指令來自于過去的八個月。與此同時,Peel全球的累計注冊用戶已突破1億,其中亞洲用戶2500萬。龐大的用戶基礎(chǔ)幫助Peel深刻了解到全球電視觀眾的觀看習慣。
“Peel的智能遙控應用已深入到中國以及世界兩百多個國家的客廳里。”Peel聯(lián)合創(chuàng)始人兼首席產(chǎn)品官Bala Krishnan表示, “自Peel智能遙控應用推出以來,我們的用戶通過“Peel in”已經(jīng)觀看了50億個電視節(jié)目。現(xiàn)在,每秒鐘都有6個電視節(jié)目在播出,通過觀看者的數(shù)據(jù),我們不斷改善產(chǎn)品內(nèi)容方面的探索和推薦能力以及Peel軟件的整體表現(xiàn)。”
對于Peel而言,中國是增長速度最快的市場之一。在這里,每六個月用戶數(shù)量和遙控指令數(shù)量就會增長一倍。中國的Peel智能遙控用戶數(shù)量全球第二,僅次于美國。Peel智能遙控應用預裝在許多熱門的智能手機中,包括三星Galaxy系列的 S4、S5 和 S6,HTC的M8和M9,以及中興和TCL的Alcatel OneTouch中的部分機型。除此之外,Peel還獲得了中國電商巨頭阿里巴巴的投資,阿里巴巴為Peel提供了強大的資金支持。Peel可以與包括三星、索尼、TCL、創(chuàng)維、海信在內(nèi)的所有主流電視機品牌的產(chǎn)品進行連接,同時,Peel還與超過150個在中國售賣的空調(diào)品牌實現(xiàn)了互聯(lián)互通。通過這些優(yōu)勢,Peel將會幫助中國用戶更方便地完成從使用傳統(tǒng)遙控器到智能手機遙控的過渡。
Peel從智能遙控應用及其平臺上的用戶觀看數(shù)據(jù)(包括安卓以及iOS系統(tǒng))中得到以下幾點發(fā)現(xiàn):
● 北京和上海的電視觀眾最喜歡喜劇,其次是電視劇和新聞。但是在天津,觀眾最喜歡電視劇,然后是喜劇和恐怖片。
● 北京觀眾通過Peel智能遙控軟件觀看最多的是《新聞聯(lián)播》,上海和廣州的觀眾觀看最多的節(jié)目是《新大頭兒子和小頭爸爸》,而在天津,最受歡迎的電視節(jié)目為《后宮·甄嬛傳》。另外,在北京、天津和上海,《綜藝喜樂匯》是市民們第二喜歡的電視節(jié)目,但是在廣州,NBA籃球排在第二位而廣東話節(jié)目《外來媳婦本地郎》排在第三位。
● 在北京和天津,排名第一的電視品牌是三星,其次是海信和創(chuàng)維。在上海,索尼是最受歡迎的電視品牌,其次是三星和海信。在廣州,最受歡迎的電視品牌是三星,TCL和創(chuàng)維緊隨其后。
除了可以用來遙控電視、機頂盒和其他娛樂設備以外,優(yōu)化后的Peel智能遙控應用還可以用來遙控空調(diào)和暖氣。另外,Peel計劃未來與更多的智能家居設備進行互聯(lián)。Krishnan說道:“我們已經(jīng)成為世界排名第一的家居遙控軟件,亦是用戶探索發(fā)現(xiàn)娛樂內(nèi)容的重要來源”。
好文章,需要你的鼓勵
北航團隊推出Easy Dataset框架,通過直觀的圖形界面和角色驅(qū)動的生成方法,讓普通用戶能夠輕松將各種格式文檔轉(zhuǎn)換為高質(zhì)量的AI訓練數(shù)據(jù)。該工具集成了智能文檔解析、混合分塊策略和個性化問答生成功能,在金融領(lǐng)域?qū)嶒炛酗@著提升了AI模型的專業(yè)表現(xiàn),同時保持通用能力。項目已開源并獲得超過9000顆GitHub星標。
盧森堡計算機事件響應中心開發(fā)的VLAI系統(tǒng),基于RoBERTa模型,能夠通過閱讀漏洞描述自動判斷危險等級。該系統(tǒng)在60萬個真實漏洞數(shù)據(jù)上訓練,準確率達82.8%,已集成到實際安全服務中。研究采用開源方式,為網(wǎng)絡安全專家提供快速漏洞風險評估工具,有效解決了官方評分發(fā)布前的安全決策難題。
中國電信研究院等機構(gòu)聯(lián)合開發(fā)的xVerify系統(tǒng),專門解決復雜AI推理模型的評估難題。該系統(tǒng)能夠準確判斷包含多步推理過程的AI輸出,在準確率和效率方面均超越現(xiàn)有方法,為AI評估領(lǐng)域提供了重要突破。
昆侖公司Skywork AI團隊開發(fā)的Skywork R1V模型,成功將文本推理能力擴展到視覺領(lǐng)域。該模型僅用380億參數(shù)就實現(xiàn)了與大型閉源模型相媲美的多模態(tài)推理性能,在MMMU測試中達到69.0分,在MathVista獲得67.5分,同時保持了優(yōu)秀的文本推理能力。研究團隊采用高效的多模態(tài)遷移、混合優(yōu)化框架和自適應推理鏈蒸餾三項核心技術(shù),成功實現(xiàn)了視覺理解與邏輯推理的完美結(jié)合,并將所有代碼和權(quán)重完全開源。