借助GMIC 2015的東風(fēng),Synaptics公司CEO日前訪華并參與主會演講,直言人機(jī)交互從2005年至2035年間重疊發(fā)生的四次變革浪潮,其中生物識別技術(shù)將加速密碼使用的減少,全方位感知將是人與設(shè)備繼交互、身份識別以及情境感知之后的第四階段。
萬物互聯(lián)時代,人與設(shè)備的交互方式正潛移默化地發(fā)生巨大變革。觸控技術(shù)是人與智能設(shè)備自然而然的連接方法,也是人機(jī)交互領(lǐng)域第一次重要的變革。作為在顯示集成技術(shù)市場的領(lǐng)導(dǎo)者,Synaptics總裁兼首席執(zhí)行官Rick Bergman,就當(dāng)下人機(jī)交互領(lǐng)域詳細(xì)分享未來20年間將重疊發(fā)生的四次變革浪潮:
交互: 專注于個人設(shè)備。從按鍵到觸控屏的轉(zhuǎn)變是這次變革的關(guān)鍵,重點(diǎn)是提高觸控性能和擴(kuò)大觸控范圍;同時顯示質(zhì)量從VGA至UHD(4K);工業(yè)設(shè)計方面則是更纖薄的曲面顯示。
個性化: 專注于用戶。變革的標(biāo)志是密碼的使用正在減少,取而代之的是生物識別(用戶獨(dú)有的特征)。這將推動移動支付的普及,但仍需要協(xié)調(diào)銀行,支付機(jī)構(gòu),商家,技術(shù)提供商等各個環(huán)節(jié),因此需要FIDO(線上快速身份驗(yàn)證)聯(lián)盟來制定標(biāo)準(zhǔn)。
情境識別: 專注于環(huán)境。屬于早期創(chuàng)業(yè)階段,目標(biāo)是讓設(shè)備能夠了解環(huán)境情況,能夠預(yù)知用戶的潛在需求。這需要不同類型的傳感器一起工作,增強(qiáng)現(xiàn)實(shí)感。
全方位感知: 專注于終極用戶體驗(yàn)。這將是人機(jī)交互的前沿創(chuàng)新模式,它將超越智能設(shè)備本身,個人設(shè)備退居幕后,甚至消失在信息基礎(chǔ)設(shè)施中,取而代之的是纖巧尺寸的傳感器將無處不在。
如今,每小時有300萬個蘋果應(yīng)用被下載;微信上每分鐘發(fā)送1000萬條信息。但這還遠(yuǎn)遠(yuǎn)不夠,萬物互聯(lián)時代智能設(shè)備將延展人類的感官和認(rèn)知能力,甚至擁有聽覺、視覺、觸覺?;诖?,全新使用場景將會應(yīng)運(yùn)而生,并重塑一切方式和關(guān)系,而排在首位的正是人與設(shè)備之間的連接關(guān)系和交互方式。
此外Synaptics還直言,除了手機(jī),筆記本,及平板電腦,觸控技術(shù)還將超越這些傳統(tǒng)市場,并在以下三大全新市場呈現(xiàn)爆發(fā)式需求:
可穿戴設(shè)備:可穿戴設(shè)備是增長最快的智能設(shè)備細(xì)分市場之一。Synaptics認(rèn)為,支持靈活的觸控/顯示,是可穿戴設(shè)備取得成功的關(guān)鍵。因?yàn)樵黾佑|控功能,可為人們與可穿戴設(shè)備互動提供一種自然而然的方式。預(yù)計2015年交付超過4000萬個采用觸控界面的智能手表。
智能汽車:汽車在未來不僅是一個出行產(chǎn)品或工具, 還將是一個以“數(shù)據(jù)”驅(qū)動的數(shù)字終端。消費(fèi)者良好的智能手機(jī)體驗(yàn)正在促進(jìn)汽車人機(jī)界面發(fā)展,消費(fèi)者對汽車智能化的需求在不斷提高。Synaptics認(rèn)為,未來每輛車上有多個顯示器,有多個觸控界面,但觸控界面必須簡便易用,不會分散駕駛員注意力。未來,要提供適用的汽車人機(jī)交互界面,如何利用力度和觸覺是關(guān)鍵。
智能家居:智能觸控界面正在簡化我們的家居生活。例如冰箱,未來智能化程度足夠高的冰箱,可以根據(jù)儲存在冰箱中的食品提供健康食譜。不管是冰箱,還是其它家用電器,增加觸控顯示界面后,人們就能夠更高效和簡單地管控這些設(shè)備。
通過把握移動互聯(lián)領(lǐng)域不斷增長的全新機(jī)遇,Synaptic業(yè)績也迎來增長。最新財報顯示,2015財年第三季度的凈收入同比增長134%,達(dá)到4.78億美元。其中,移動產(chǎn)品收入同比增長177%,達(dá)到4.174億美元,移動產(chǎn)品收入包括所有觸控、顯示驅(qū)動器,以及指紋識別產(chǎn)品。
正如Synaptics所言,真正的創(chuàng)新必須兼顧設(shè)備智能和最佳體驗(yàn)。從1972年開始,觸控技術(shù)顛覆了傳統(tǒng)鍵盤;最近幾年,指紋識別不斷取代數(shù)字密碼;就在今天,情境識別開始重塑智能體驗(yàn);展望未來,全方位感知即將順勢而來。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團(tuán)隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊通過對比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗(yàn)證有效性。