高速發(fā)展的產(chǎn)業(yè),也帶來了一些問題和機遇。此前火爆的P2P網(wǎng)貸行業(yè)就亟待一套行之有效的方法加以監(jiān)管。5月8日,第三方數(shù)據(jù)服務(wù)平臺TalkingData發(fā)布移動金融應(yīng)用行業(yè)數(shù)據(jù)報告。報告顯示,P2P網(wǎng)貸行業(yè)利率正在回歸理性化;而問題平臺數(shù)量激增,行業(yè)或?qū)⒋笠?guī)模洗牌;同時,P2P向移動端快速滲透,移動端將成為未來一段時間各家企業(yè)必爭之地。此外,HCE的崛起,讓互聯(lián)網(wǎng)公司進入NFC支付領(lǐng)域成為可能;手機廠商直接參與移動支付漸成趨勢;免密支付這種新興的形式,將助力移動支付飛速發(fā)展。
移動互聯(lián)網(wǎng)拉近了人與一切服務(wù)之間的距離,金融行業(yè)很自然的過度到了“移動互聯(lián)時代”。甚至,在網(wǎng)絡(luò)、電商極度發(fā)達的情況下,結(jié)合互聯(lián)網(wǎng)行業(yè)靈活、迅捷的特性,催生了不少新興的金融產(chǎn)品形式,由此開啟了一扇通往無數(shù)可能性的大門。而移動應(yīng)用,順理成章地成了這些“新金融”、“新模式”天然的入口。
經(jīng)過近2年的發(fā)展,互聯(lián)網(wǎng)金融的規(guī)模發(fā)展迅速,覆蓋用戶數(shù)量巨大。從用戶規(guī)模上來看,2014年第一季度,移動金融應(yīng)用的用戶數(shù)量為3.3億;而2015年的第一季度,這一數(shù)字達到了7.6億,增幅高達130%。
移動金融用戶性別分布較為均衡,整體來看,女性用戶較多;從細分行業(yè)來看,男性用戶相對喜歡證券和理財產(chǎn)品,而女性用戶更偏愛銀行和生活應(yīng)用;而在這些用戶中,80后是絕對的主力。
從用戶的地域分布上來看,移動金融應(yīng)用的用戶主要分布在東部沿海及中部經(jīng)濟相對發(fā)達的地區(qū),不過從增長速度上來看,三線城市起點較低,因此增長迅猛,潛力巨大。
應(yīng)用類型方面,主要集中在理財和證券兩類上,二者之和高達58.4%;而生活應(yīng)用、支付類應(yīng)用,則因行業(yè)內(nèi)存在巨頭,所以總體數(shù)量相對較少;從用戶規(guī)模細分來看,移動保險、移動理財產(chǎn)品整體用戶數(shù)量相對較少,發(fā)展空間巨大。
事實上,在每個用戶的設(shè)備中,安裝的移動金融App數(shù)量遠不及其他類型的應(yīng)用,日常打開這些應(yīng)用的頻率也并不高。一方面,金融類應(yīng)用背后依托的是金融機構(gòu)提供的服務(wù),服務(wù)遷移成本較高,用戶粘性好;另一方面,對于絕大多數(shù)金融類應(yīng)用而言,往往只有在需要的時候用戶才會開啟,目的明確,不會像工具、游戲等類型的應(yīng)用需要經(jīng)常打開使用。
而不同城市的用戶對金融應(yīng)用的喜好也有所不同。相對而言,北京用戶更偏愛理財類應(yīng)用;上海用戶更喜歡股票證券類應(yīng)用;而廣州的用戶則對銀行客戶端情有獨鐘。從金融應(yīng)用的使用情況來看, 證券類應(yīng)用日常使用次數(shù)最多,可見小小股票牽動著億萬群眾的心。
目前,各大銀行、券商,甚至是互聯(lián)網(wǎng)企業(yè),都有在移動金融領(lǐng)域的布局,從目前的情況來看,大體的產(chǎn)業(yè)布局幾近完成,各個金融細分領(lǐng)域,都有對應(yīng)的移動應(yīng)用和服務(wù)可供用戶選擇??梢姡苿咏鹑谝呀?jīng)進入高速發(fā)展期,支付、銀行、證券等細分行業(yè)相繼成熟,記賬、信用卡管理等更多移動金融新形態(tài)出現(xiàn),并且逐漸在功能及用戶體驗方面高速演進。
除了傳統(tǒng)金融行業(yè),互聯(lián)網(wǎng)企業(yè)在金融領(lǐng)域的布局也已經(jīng)初現(xiàn)端倪。無論是BAT還是京東,都已經(jīng)開始憑借龐大的用戶群,借助互聯(lián)網(wǎng)及移動互聯(lián)網(wǎng)向金融領(lǐng)域滲透;而傳統(tǒng)金融企業(yè),也正在逐漸加速向移動互聯(lián)過渡。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學習40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領(lǐng)域帶來了效率和精度的雙重突破。