CNET科技資訊網(wǎng) 4月18日 北京消息(文/周雅):在傳統(tǒng)金融服務(wù)中,用戶向銀行提出貸款申請(qǐng)時(shí),必須到實(shí)地進(jìn)行身份信息核實(shí),核實(shí)無誤之后才可以完成簽訂協(xié)議。從審核時(shí)間上來說,至少需要7個(gè)工作日左右的時(shí)間。如今,一場(chǎng)消費(fèi)金融的變革正在到來。
平安科技天下通事業(yè)群總經(jīng)理石端橋
4月15日,在平安天下通“人臉識(shí)別”技術(shù)發(fā)布會(huì)現(xiàn)場(chǎng),“刷臉”交易真實(shí)上演。平安科技天下通事業(yè)群總經(jīng)理石端橋現(xiàn)場(chǎng)演繹整個(gè)過程,通過人臉識(shí)別技術(shù),用戶通過平安天下通APP申請(qǐng)貸款時(shí),只需要打開手機(jī)攝像頭,由系統(tǒng)拍攝并抓取用戶若干面部影像,再進(jìn)行檢測(cè),5秒即可遠(yuǎn)程完成身份核實(shí),最快實(shí)現(xiàn)6分鐘完成放貸。
石端橋說“我都被自己感動(dòng)了”。
自2014年開始,經(jīng)過短短一年多的時(shí)間,平安科技人工智能實(shí)驗(yàn)室團(tuán)隊(duì)完成了從核心技術(shù)研究到產(chǎn)品、技術(shù)的實(shí)現(xiàn),最終完成人臉識(shí)別技術(shù)的應(yīng)用。
此次發(fā)布的人臉識(shí)別技術(shù),由平安科技基于平安生物特征認(rèn)證平臺(tái)(BioAuth)開發(fā),通過對(duì)人臉的數(shù)據(jù)信息,包括結(jié)構(gòu)、五官以及肌肉等方面的數(shù)據(jù)分析,提供端到端身份認(rèn)證類服務(wù),今年5月份全面上線。
在安全層面,該人臉識(shí)別技術(shù)自優(yōu)化的架構(gòu)已經(jīng)可以應(yīng)對(duì)人臉隨著年齡增加而發(fā)生的變化,比對(duì)速度可達(dá)每秒1500萬(wàn)次,識(shí)別準(zhǔn)確率達(dá)99.993%,高于人眼的97.53%。至于大眾比較關(guān)心的雙胞胎如何進(jìn)行人臉識(shí)別的問題,只要具有兩個(gè)雙胞胎的對(duì)應(yīng)照片和相關(guān)數(shù)據(jù),機(jī)器依然分辨出誰(shuí)是誰(shuí)。
石端橋指出:“從貸款的角度,我們對(duì)人臉的技術(shù)對(duì)客戶的準(zhǔn)確度識(shí)別是有信心的,線上貸款實(shí)際上對(duì)于金融公司來說是承擔(dān)高風(fēng)險(xiǎn)的,我們能夠很踴躍的拿出這個(gè)貸款作為場(chǎng)景直接進(jìn)行測(cè)試,或者是拿他作為推廣,說明我們對(duì)“人臉識(shí)別”技術(shù)有信心。”
人臉識(shí)別技術(shù)基于神經(jīng)網(wǎng)絡(luò),讓計(jì)算機(jī)學(xué)習(xí)人的大腦,并通過“深度學(xué)習(xí)算法”的大量訓(xùn)練,讓它對(duì)人臉產(chǎn)生記憶,實(shí)現(xiàn)識(shí)別。其之所以能夠準(zhǔn)確率高于人眼,主要在于計(jì)算機(jī)可以關(guān)注更多的關(guān)鍵細(xì)節(jié),并通過算法,剔除一些干擾因素。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語(yǔ)言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語(yǔ)言模型人性化對(duì)話問題。該研究創(chuàng)建了包含20萬(wàn)高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。