據(jù)一項(xiàng)最新報(bào)道表示,亞馬遜公司計(jì)劃成為客戶(hù)和公司之間的“中間人”,針對(duì)企業(yè)客戶(hù)推出管理訂閱支付服務(wù),以此挑戰(zhàn)第三方支付領(lǐng)域eBay旗下PayPal的權(quán)威。
據(jù)路透社報(bào)道,該電子零售巨頭預(yù)計(jì)將于當(dāng)?shù)貢r(shí)間本周一宣布一項(xiàng)新服務(wù),屆時(shí)亞馬遜將成為小型和大型公司支付賬單和處理交易的“中間人”。亞馬遜賣(mài)家服務(wù)部門(mén)副總裁湯姆•泰勒(Tom Taylor)在接受新聞媒體的一次采訪(fǎng)時(shí)表示,這是公司“拓展用戶(hù)希望獲得亞馬遜支持領(lǐng)域”計(jì)劃的一部分。
對(duì)eBay旗下的PayPal而言,亞馬遜此項(xiàng)服務(wù)的推出可能是個(gè)壞消息。畢竟在互聯(lián)網(wǎng)上,數(shù)不勝數(shù)的網(wǎng)站和公司都允許客戶(hù)通過(guò)PayPal支付賬單。而這些交易都是通過(guò)消費(fèi)者在PayPal存儲(chǔ)的信用卡和通過(guò)PayPal服務(wù)支付現(xiàn)金完成的。之后PayPal將從每筆交易中抽取一定的費(fèi)用。
據(jù)路透社報(bào)道,亞馬遜的支付服務(wù)采取的支付策略與PayPal近乎相同。亞馬遜已擁有超過(guò)2.4億名活躍用戶(hù)在亞馬遜存儲(chǔ)有信用卡,未來(lái)這些用戶(hù)在支付時(shí)將可使用亞馬遜支付按鈕為交易付款,交易款項(xiàng)將從用戶(hù)在亞馬遜上存檔的信用卡賬戶(hù)中扣除,并完成交易。
亞馬遜一直在同幾家創(chuàng)業(yè)公司測(cè)試其支付服務(wù),包括移動(dòng)電話(huà)公司Ting。這項(xiàng)測(cè)試工作的重點(diǎn)主要是基于訂閱服務(wù)的支付系統(tǒng)。與PayPal一樣,亞馬遜也會(huì)從每筆交易中收取一定的費(fèi)用。
為了支付系統(tǒng)的啟動(dòng)和運(yùn)行,亞馬遜需要與能夠接受這種交易方式的公司進(jìn)行合作,但目前尚不清楚有多少公司迄今已簽約該項(xiàng)服務(wù)。
無(wú)論如何,在這個(gè)越來(lái)越?jīng)]有安全感的世界里,PayPal和亞馬遜推出的這類(lèi)服務(wù)為用戶(hù)增加了一定的安全保障。通過(guò)提供PayPal和亞馬遜支付按鈕,即便用戶(hù)不希望與未知公司分享其信用卡信息,未知商人也能夠?yàn)轭櫩吞峁┌踩姆?wù)。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開(kāi)發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開(kāi)發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺(jué)解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺(jué)語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺(jué)信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。