幾乎在兩年前的同一時間,也是四月份,CNET記者曾經(jīng)受邀參觀位于硅谷的甲骨文總部,而這次是第二次。時隔兩年,甲骨文對中國的策略有哪些推行重點,這些策略貫徹和實施的怎么樣?其間這些策略有沒有改變?這是我們最感興趣的問題。
在剛剛公布不久的第三季度財報中,甲骨文實現(xiàn)收入93.07億美元、同比增長4%,利潤25.65億美元、同比增長2%的成績,其中云計算和集成系統(tǒng)是推動增長的雙引擎。云軟件訂購收入增長25%,其中云應用軟件增長60%,季度收入已接近3億美元。硬件產(chǎn)品收入增長8%,這也是甲骨文收購Sun以來首次實現(xiàn)增長,而集成系統(tǒng)收入則增長了30%。
在云計算和集成系統(tǒng)的增長中,中國市場做出的貢獻大嗎?甲骨文在中國推行云計算和集成系統(tǒng)的腳步夠快嗎?這是我此行中特別想弄清楚的問題。
因為在我看來,面對無論老對手IBM、微軟還是新對手亞馬遜紛紛將公有云落地在中國,并且在中國云計算市場大展拳腳,甲骨文似乎不著急;而顛覆傳統(tǒng)硬件采購模式的軟硬件集成的一體機,中國客戶接受程度如何呢,恐怕也不那么順利吧。
兩年前的甲骨文總部之行,讓記者滿滿感受到的是甲骨文渾身散發(fā)的傲氣,它藐視對手,它特別崇拜自己的技術(shù),這個有著濃濃的工程師文化的公司,或許不那么會左右逢源,它推崇的,還是硬碰硬的拿實力說話。
但是兩年的時間,IT產(chǎn)業(yè)被新興技術(shù)推著跑步前進,跑在前邊的更多是互聯(lián)網(wǎng)公司,他們輕裝上陣,跑得輕松也快;而傳統(tǒng)的IT企業(yè),多年積累,要帶著的東西多,跑步速度肯定受影響。
這一現(xiàn)實,甲骨文同樣面對,它該怎么加速?
本次總部之行,CNET將會采訪甲骨文公司總裁馬克·赫德以及幾乎所有產(chǎn)品線的副總裁,詳情請關(guān)注CNET的詳細報道。
好文章,需要你的鼓勵
新加坡國立大學研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓練AI玩簡單撲克游戲就能讓其數(shù)學推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學題目作為訓練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學解題中,為AI訓練提供了新思路。
同濟大學團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學習和數(shù)學優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領域提供更可靠的3D視覺解決方案。
伊利諾伊大學研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學習訓練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓練效率,已在多個任務上驗證有效性。