英偉達股價截圖
北京時間5月8日消息,英偉達今天公布了截至4月26日的2016財年第一財季財務(wù)報告。財報顯示,英偉達第一財季營收11.5億美元,較上年同期的11億美元增長4%,較上一季度的12.5億美元下降8%;基于美國通用會計準則(GAAP,以下簡稱“GAAP”),凈利潤為1.34億美元,較上年同期的1.37億美元下降2%,較一季度的1.93億美元下降31%。
英偉達第一財季主要財務(wù)數(shù)據(jù)
營收:英偉達第一財季營收11.5億美元,較上年同期的11億美元增長4%,較上一季度的12.5億美元下降8%。
凈利潤:基于GAAP,凈利潤為1.34億美元,較上年同期的1.37億美元下降2%,較一季度的1.93億美元下滑31%;第一財季每股攤薄收益為0.24美元,上年同期持平,上一季度為0.35美元。
基于非美國通用會計準則(non-GAAP,以下簡稱“non-GAAP”),凈利潤為1.87億美元,上年同期為1.66億美元,上一季度為2.41億美元;第一財季每股攤薄收益為0.33美元,上年同期為0.29美元,上一季度為0.43美元。
毛利率:基于GAAP,第一財季毛利率為56.7%,上年同期為54.8%,上一季度為55.9%;基于non-GAAP,第一財季毛利率為56.9%,上年同期為55.1%,上一季度為56.2%。
營業(yè)支出:基于GAAP,營業(yè)支出為4.77億美元,上年同期為4.53億美元,上一季度為4.68億美元;基于non-GAAP,營業(yè)支出為4.25億美元,上年同期為4.11億美元,上一季度為4.20億美元。
資本回報
第一財季,英偉達派發(fā)了價值4600萬美元的股息,回購了240萬股股票,因此共向股東返還9900萬美元。
英偉達宣布將季度股息上調(diào)15%至每股0.0975美元。英偉達將在2015年6月12日向2015年5月21日持股股東派發(fā)下一財季每股0.0975美元的股息。
英偉達董事會還宣布將提高2016財年股東返還計劃,由之前預(yù)期的6億美元擴大至8億美元。返還計劃將通過派息和股票回購進行。
此外,該公司董事會還擴展了此前授權(quán)的一項至2018年12月的股票回購計劃,額外新增授權(quán)16.2億美元,使總的股票回購計劃規(guī)模增至20億美元。
業(yè)績展望
英偉達預(yù)計2016財年第二財季:
營收為10.1億美元、上下浮動2%。
基于GAAP,毛利率為55.7%,基于non-GAAP,毛利率為56.0%,上下浮動50個基點。
基于GAAP,營業(yè)支出約為4.74億美元;基于non-GAAP,營業(yè)支出約為4.25億美元。
股價變動
周四納斯達克股市收盤,英偉達股價漲0.39美元,報收于22.49美元,漲幅為1.76%。盤后交易中,英偉達股價出現(xiàn)下跌,截至美東時間5月7日17:23(北京時間5月8日5:23),英偉達股價跌0.39美元,暫報22.10美元,跌幅為0.1.73%。過去52周以來,英偉達股價浮動范圍:16.77-23.61美元。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學習40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領(lǐng)域帶來了效率和精度的雙重突破。