GSMA是全球行動(dòng)通訊系統(tǒng)協(xié)會(huì)的簡(jiǎn)稱,其在1995年成立,據(jù)了解,目前在全球有800多家移動(dòng)運(yùn)營(yíng)商與250多家企業(yè)是GSMA的會(huì)員。GSMA還會(huì)定期舉辦活動(dòng),例如世界移動(dòng)通信大會(huì)及亞洲移動(dòng)通信博覽會(huì)等。
伴隨著移動(dòng)互聯(lián)網(wǎng)的不斷升溫,移動(dòng)終端越來(lái)越受到用戶的青睞。而且自4G牌照發(fā)布以來(lái),運(yùn)營(yíng)商、設(shè)備制造商、服務(wù)提供商都在摩拳擦掌,打算大顯身手。據(jù)GSMA預(yù)測(cè),2014年中國(guó)將有1億左右的4G連接,到2020年中國(guó)的4G連接總數(shù)將達(dá)9億。
左:GSMA亞太區(qū)市場(chǎng)部副總裁余振達(dá)
右:GSMA亞太區(qū)戰(zhàn)略合作負(fù)責(zé)人賈可
昨日,GSMA在北京舉辦了媒體沙龍活動(dòng),與參會(huì)人員一同探討移動(dòng)互聯(lián)面臨的機(jī)遇。GSMA亞太區(qū)市場(chǎng)部副總裁余振達(dá)與GSMA亞太區(qū)戰(zhàn)略合作負(fù)責(zé)人賈可參與了本次會(huì)議。
賈可認(rèn)為,傳統(tǒng)的行業(yè)與移動(dòng)的融合是趨勢(shì),而且智能設(shè)備也會(huì)逐漸變成互聯(lián)設(shè)備。他表示智能穿戴設(shè)備、車聯(lián)網(wǎng)、信息安全等是未來(lái)移動(dòng)互聯(lián)發(fā)展的趨勢(shì),而便利、相信、控制和移動(dòng)支付則是移動(dòng)互聯(lián)未來(lái)關(guān)注的焦點(diǎn),便利指的是方便共享信息,類似記住賬戶,直接登錄;而相信則是方便共享信息的前提,要認(rèn)可合作伙伴,才能進(jìn)行下一步動(dòng)作;控制則說(shuō)的是要對(duì)自己分享的信息有控制能力;移動(dòng)支付在今后也會(huì)越來(lái)越普及。
據(jù)悉,2014年亞洲移動(dòng)通信博覽會(huì)將于6月11日至13日在上海新國(guó)際博覽中心(SNIEC)舉行。本屆亞洲移動(dòng)通信博覽會(huì)期間,GSMA將會(huì)舉辦包括Fitbit挑戰(zhàn)賽、“尋找14區(qū)”移動(dòng)尋寶游戲及移動(dòng)明星舞臺(tái)等活動(dòng),全新的活動(dòng)體驗(yàn)?zāi)軌蜃寘?huì)者親身體驗(yàn)移動(dòng)通信如何改變著我們的工作、生活與休閑方式。
好文章,需要你的鼓勵(lì)
北航團(tuán)隊(duì)推出Easy Dataset框架,通過(guò)直觀的圖形界面和角色驅(qū)動(dòng)的生成方法,讓普通用戶能夠輕松將各種格式文檔轉(zhuǎn)換為高質(zhì)量的AI訓(xùn)練數(shù)據(jù)。該工具集成了智能文檔解析、混合分塊策略和個(gè)性化問(wèn)答生成功能,在金融領(lǐng)域?qū)嶒?yàn)中顯著提升了AI模型的專業(yè)表現(xiàn),同時(shí)保持通用能力。項(xiàng)目已開(kāi)源并獲得超過(guò)9000顆GitHub星標(biāo)。
盧森堡計(jì)算機(jī)事件響應(yīng)中心開(kāi)發(fā)的VLAI系統(tǒng),基于RoBERTa模型,能夠通過(guò)閱讀漏洞描述自動(dòng)判斷危險(xiǎn)等級(jí)。該系統(tǒng)在60萬(wàn)個(gè)真實(shí)漏洞數(shù)據(jù)上訓(xùn)練,準(zhǔn)確率達(dá)82.8%,已集成到實(shí)際安全服務(wù)中。研究采用開(kāi)源方式,為網(wǎng)絡(luò)安全專家提供快速漏洞風(fēng)險(xiǎn)評(píng)估工具,有效解決了官方評(píng)分發(fā)布前的安全決策難題。
中國(guó)電信研究院等機(jī)構(gòu)聯(lián)合開(kāi)發(fā)的xVerify系統(tǒng),專門解決復(fù)雜AI推理模型的評(píng)估難題。該系統(tǒng)能夠準(zhǔn)確判斷包含多步推理過(guò)程的AI輸出,在準(zhǔn)確率和效率方面均超越現(xiàn)有方法,為AI評(píng)估領(lǐng)域提供了重要突破。
昆侖公司Skywork AI團(tuán)隊(duì)開(kāi)發(fā)的Skywork R1V模型,成功將文本推理能力擴(kuò)展到視覺(jué)領(lǐng)域。該模型僅用380億參數(shù)就實(shí)現(xiàn)了與大型閉源模型相媲美的多模態(tài)推理性能,在MMMU測(cè)試中達(dá)到69.0分,在MathVista獲得67.5分,同時(shí)保持了優(yōu)秀的文本推理能力。研究團(tuán)隊(duì)采用高效的多模態(tài)遷移、混合優(yōu)化框架和自適應(yīng)推理鏈蒸餾三項(xiàng)核心技術(shù),成功實(shí)現(xiàn)了視覺(jué)理解與邏輯推理的完美結(jié)合,并將所有代碼和權(quán)重完全開(kāi)源。