甲骨文與谷歌的專(zhuān)利侵權(quán)案長(zhǎng)期上演,在這個(gè)與Android移動(dòng)操作系統(tǒng)中Java專(zhuān)利侵權(quán)以及版權(quán)侵犯相關(guān)的訴訟糾紛中,甲骨文在周五贏得了重大勝利。
美國(guó)華盛頓聯(lián)邦巡回上訴法院判決,在這場(chǎng)企業(yè)版權(quán)之戰(zhàn)中,應(yīng)授予甲骨文從其在2010年1月因收購(gòu)Sun Microsystems公司而獲得的相關(guān)Java語(yǔ)言專(zhuān)利版權(quán)保護(hù)。
甲骨文在2010年將谷歌告上了法庭,控訴谷歌藐視其版權(quán),認(rèn)為Android系統(tǒng)涉嫌侵犯與Java相關(guān)技術(shù)的專(zhuān)利權(quán)。
2012年5月,陪審團(tuán)裁決認(rèn)為谷歌并未侵犯甲骨文專(zhuān)利,但同時(shí)裁定稱(chēng)谷歌使用的Java API結(jié)構(gòu)不具有版權(quán)。
然而在當(dāng)?shù)貢r(shí)間本周五,一個(gè)聯(lián)邦巡回法官小組撤銷(xiāo)了之前的裁定,聲明甲骨文持有的部分Java語(yǔ)言專(zhuān)利其實(shí)應(yīng)受到版權(quán)法的保護(hù)。
但陪審團(tuán)還需要進(jìn)一步評(píng)估,以確定谷歌合理使用材料的確切數(shù)量。
甲骨文公司法律總顧問(wèn)多利安·達(dá)利(Dorian Daley)在一份聲明中表示,甲骨文“非常滿意”陪審團(tuán)的裁決,稱(chēng)谷歌的嘗試會(huì)“大大限制計(jì)算機(jī)代碼的版權(quán)保護(hù)”。
她補(bǔ)充道:“聯(lián)邦巡回法院的裁決是對(duì)甲骨文和整個(gè)依賴(lài)于版權(quán)保護(hù)的軟件行業(yè)的勝利,這種版權(quán)保護(hù)能夠激勵(lì)創(chuàng)新、確保開(kāi)發(fā)人員能夠因其創(chuàng)新突破而獲得獎(jiǎng)勵(lì)。我們相信,地方法院在案件發(fā)回后將會(huì)相應(yīng)地采用合理使用原則進(jìn)行審判,而這項(xiàng)原則并不保護(hù)對(duì)受版權(quán)保護(hù)材料的赤裸裸的商業(yè)開(kāi)發(fā)”。
谷歌表示對(duì)這項(xiàng)裁決很“失望”,并稱(chēng)這“為計(jì)算機(jī)科學(xué)和軟件開(kāi)發(fā)樹(shù)立了一個(gè)有損害性的先例”。
好文章,需要你的鼓勵(lì)
新加坡國(guó)立大學(xué)研究團(tuán)隊(duì)開(kāi)發(fā)了SPIRAL框架,通過(guò)讓AI與自己對(duì)弈零和游戲來(lái)提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無(wú)需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開(kāi)發(fā)的GIGA-ToF技術(shù)通過(guò)融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問(wèn)題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺(jué)解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過(guò)對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過(guò)強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺(jué)語(yǔ)言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無(wú)法有效利用視覺(jué)信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過(guò)動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語(yǔ)言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。