北京時間5月6日上午消息,本周,The Intercept網(wǎng)站再次發(fā)布了愛德華·斯諾登(Edward Snowden)曝光的美國政府文件。其中顯示,美國國家安全局(NSA)在近10年的時間里持續(xù)將監(jiān)聽的語音通話轉換為可搜索的文本文檔。
長期以來,NSA一直監(jiān)控著全球范圍內(nèi),尤其是阿富汗和伊拉克等沖突地區(qū)的“信號情報”,這也是NSA的主要職能。以往,這樣的數(shù)據(jù)收集活動需要人工操作員監(jiān)聽通話,并進行實時的翻譯。
然而最新曝光的文件顯示,NSA開發(fā)出了一種被稱作“語音版谷歌”的技術。這一自動化系統(tǒng)能提供粗略的、同時可通過關鍵詞進行搜索的語音實錄。與此同時,NSA還開發(fā)了數(shù)據(jù)分析項目和復雜的算法,以標記出需要人工審閱的通話。
此外,這一技術實現(xiàn)了自動化和工業(yè)級規(guī)模,從而幫助NSA監(jiān)控特定地區(qū)的龐大通話流量。這些自動轉換的文本十分粗略,但根據(jù)來自NSA的托馬斯·德拉科(Thomas Drake)的說法,“即使并不是100%完美,我仍可以獲得大量信息。這樣的情報更容易讀取,我可以進行搜索。真正的突破在于實現(xiàn)了龐大的規(guī)模。”
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結合大語言模型的敘事推理能力與音頻生成技術,通過交錯式推理生成、解耦橋接機制和漸進式訓練,能夠將復雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術,通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應用奠定了重要基礎。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡技術,通過學習40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領域帶來了效率和精度的雙重突破。