北京時(shí)間7月23日上午消息,由于競(jìng)爭(zhēng)對(duì)手要求監(jiān)管者調(diào)查谷歌在網(wǎng)絡(luò)顯示廣告技術(shù)領(lǐng)域的主導(dǎo)地位,該公司在與布魯塞爾的司法斗爭(zhēng)中面臨新的威脅。
包括WPP旗下的OpenX和微軟旗下的AppNexus在內(nèi)的多家公司,最近幾個(gè)月都向歐盟表達(dá)了相似的觀點(diǎn):谷歌可能在廣告技術(shù)市場(chǎng)通過(guò)不法手段阻礙競(jìng)爭(zhēng)。
這類技術(shù)可以幫助買賣雙方購(gòu)買或出售各類顯示廣告,包括橫幅廣告和視頻廣告。據(jù)知情人士透露,這些企業(yè)的投訴內(nèi)容包括,谷歌通過(guò)協(xié)議方式捆綁自家廣告技術(shù),阻止客戶使用競(jìng)爭(zhēng)對(duì)手的服務(wù)。
OpenX和AppNexus均拒絕對(duì)此置評(píng)。
這些企業(yè)已經(jīng)向歐盟委員會(huì)提交了相關(guān)文件,但尚未發(fā)起正式投訴。由于一些企業(yè)與谷歌同時(shí)存在合作和競(jìng)爭(zhēng)關(guān)系,所以始終保持低調(diào),避免因此喪失業(yè)務(wù)。
歐盟委員會(huì)今年4月對(duì)谷歌發(fā)起反壟斷訴訟,指控該公司濫用網(wǎng)絡(luò)搜索和移動(dòng)操作系統(tǒng)領(lǐng)域的主導(dǎo)地位。但谷歌否認(rèn)了這些指控。
知情人士表示,歐盟委員會(huì)已經(jīng)收到了一些企業(yè)提交的“商務(wù)”信息,但也警告稱,廣告技術(shù)行業(yè)并未成為任何調(diào)查活動(dòng)的焦點(diǎn)。
谷歌2007年斥資31億美元收購(gòu)了DoubleClick,并因此成為一家大型顯示廣告?zhèn)鬏敼ぞ咛峁┥?。該公司的技術(shù)包括一款為廣告主開發(fā)的購(gòu)買工具、一款為發(fā)布商提供的廣告服務(wù)產(chǎn)品以及一個(gè)廣告交易市場(chǎng)。
谷歌說(shuō):“我們一直在努力促成產(chǎn)品之間的無(wú)縫整合,但不要求客戶必須使用我們的DoubleClick產(chǎn)品。”該公司并未具體披露各個(gè)部門的規(guī)模,但根據(jù)市場(chǎng)研究公司Pivotal Research的研究,谷歌去年搜索業(yè)務(wù)毛營(yíng)收為490億美元,YouTube為36億美元,DoubleClick為21億美元,Google Display Network和其他顯示廣告產(chǎn)品為69億美元。
美國(guó)聯(lián)邦貿(mào)易委員會(huì)2013年對(duì)谷歌的顯示廣告行為展開調(diào)查,但去年結(jié)束調(diào)查時(shí)并未發(fā)起任何訴訟。
哈佛商學(xué)院副教授本·埃德?tīng)柭?Ben Edelman)今年曾就谷歌的各種捆綁行為發(fā)表了一篇論文,他表示,這種模式是谷歌增長(zhǎng)的關(guān)鍵動(dòng)力。
然而,歐洲法律專家卻認(rèn)為,要就此提起訴訟并非易事,因?yàn)檫@一市場(chǎng)的規(guī)模和現(xiàn)狀數(shù)據(jù)非常匱乏,而谷歌究竟在多大程度上占據(jù)主導(dǎo)同樣難以判斷。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺(jué)解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺(jué)語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺(jué)信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。