北京時間9月9日上午消息,美國第一大運營商Verizon首席信息和技術架構師羅杰·古納尼(Roger Gurnani)表示,該公司將在未來12個月實地測試5G技術,預計可在2017年部署商用。
而在此之前,很多業(yè)內人士都預計5G技術要到2020年才能推出。此次測試將令Verizon成為全世界首家正式測試5G網絡的運營商。這也標志著整個電信行業(yè)邁出了一大步。正如當今的4G網絡大幅提升了智能手機的普及率一樣,5G也將給科技行業(yè)帶來類似的變革。
“未來將會出現(xiàn)更多我無法描述的東西。”古納尼說,“我無法設想所有具有顛覆性的產品和服務。但的確有一些可能。”
古納尼表示,Verizon的測試顯示,5G的傳輸速度比4G塊30至50倍,甚至比谷歌光纖網絡還快。使用這種技術,下載電影《銀河護衛(wèi)隊》只需要15秒,而4G網絡需要6分鐘。
除此之外,5G技術還具備響應速度快的特點,因此可以從東京將精細的手術畫面實時傳送到紐約。另外,這種技術的能耗效率也更高,設備的續(xù)航時間可能延長10倍。運營商還可以通過更寬的管道傳送更多數據,使得流媒體視頻更加流暢。
但5G技術仍處于發(fā)展初期,一些技術協(xié)議尚未最終達成。但更快的傳輸和響應速度可以加速物聯(lián)網等很多科技趨勢。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據復雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結合大語言模型的敘事推理能力與音頻生成技術,通過交錯式推理生成、解耦橋接機制和漸進式訓練,能夠將復雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術,通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術僅需添加兩個線性層就能大幅提升運動質量,在多項測試中超越包括Sora在內的商業(yè)模型,為AI視頻生成的實用化應用奠定了重要基礎。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質量樣本的訓練數據集和MM-AlignBench評測基準,通過創(chuàng)新的數據生成和質量管控方法,讓AI在保持技術能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預測模型,能夠在不到一分鐘內完成10天全球天氣預報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經網絡技術,通過學習40年歷史數據掌握天氣變化規(guī)律,在極端天氣預測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領域帶來了效率和精度的雙重突破。