芯片廠商AMD今天發(fā)布了其2014財(cái)年第一季度財(cái)務(wù)報(bào)告。報(bào)告顯示,AMD第一財(cái)季凈營(yíng)收為13.97億美元,上年同期為10.88億美元,同比增長(zhǎng)28%;凈虧損為2000萬(wàn)美元,每股攤薄虧損0.03美元,上年同期凈虧損為1.46億美元,上年同期每股攤薄虧損0.19美元。
基于非美國(guó)通用會(huì)計(jì)準(zhǔn)則(Non-GAAP),凈利潤(rùn)為1200萬(wàn)美元,每股攤薄利潤(rùn)為0.02美元;上年同期凈虧損為9400萬(wàn)美元,攤薄虧損為0.13美元。
華爾街分析師預(yù)計(jì)AMD第一季度營(yíng)收為13.4億美元,收益為0美元。
從業(yè)務(wù)部門(mén)來(lái)看,AMD的計(jì)算解決方案業(yè)務(wù)部門(mén)凈營(yíng)收為6.63億美元,上年同期為7.51億美元,同比降12%;上季度為7.22億美元,環(huán)比下滑8%,AMD將這種減少歸因于“客戶產(chǎn)品出貨量下降”。財(cái)報(bào)顯示,AMD的微處理器平均銷(xiāo)售價(jià)格同比和環(huán)比“略有下滑”。
而AMD圖形與視覺(jué)解決方案業(yè)務(wù)部門(mén),該季度凈營(yíng)收達(dá)到7.34億美元,同比增長(zhǎng)118%,環(huán)比降15%。AMD稱由于“AMD Radeon R7和R9機(jī)型系列產(chǎn)品的強(qiáng)勁需求”,該季度GPU收入同比和環(huán)比均有大幅上漲。
AMD首席執(zhí)行官羅里·羅瑞德(Rory Read)在一份聲明中表示:“AMD將繼續(xù)推進(jìn)在2013年下半年制定的各項(xiàng)基礎(chǔ)政策,并進(jìn)一步轉(zhuǎn)型。由于我們的強(qiáng)大x86處理器和最佳體驗(yàn)圖形產(chǎn)品,該季度AMD營(yíng)收同比增長(zhǎng)28%。我們已經(jīng)為繼續(xù)開(kāi)展多樣化業(yè)務(wù),以支持我們的客戶不斷推陳出新、保持領(lǐng)先做好了準(zhǔn)備。”
AMD一直在致力于減少成本,而且目前在數(shù)據(jù)中心整合上的投資目標(biāo)更加靈活、有效,產(chǎn)品研發(fā)更加快速。
對(duì)于今年AMD第二季度業(yè)績(jī)預(yù)期,華爾街認(rèn)為其營(yíng)收將攀升至13.6億美元,盈利預(yù)期依舊為0。而AMD預(yù)計(jì)2014財(cái)年第二季度營(yíng)收環(huán)比增長(zhǎng)3%,上下浮動(dòng)3個(gè)百分點(diǎn)。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語(yǔ)言模型的敘事推理能力與音頻生成技術(shù),通過(guò)交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開(kāi)辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過(guò)讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問(wèn)題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語(yǔ)言模型人性化對(duì)話問(wèn)題。該研究創(chuàng)建了包含20萬(wàn)高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過(guò)創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開(kāi)發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過(guò)學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來(lái)了效率和精度的雙重突破。