來自 WSJ 的消息,位于倫敦的初創(chuàng)公司Realeyes近日獲得了歐盟360萬歐元(390萬美元)的撥款獎勵。
Realeyes 創(chuàng)立于2007年,利用圖像處理、人工智能、計算機視覺等技術幫助,通過使用網絡攝像頭或智能手機監(jiān)測追蹤人的面部表情數據,以進行人的情緒識別和行為反 應分析。目前,Realeyes已建立起超過500萬幀的人臉數據庫,每一幀都有多達7個面部動作注解,比如皺眉意味著困惑,而眉毛向上抬起則表示驚訝。 此外還會有其他面部特征幫助一起進行情緒識別,使分析結果更有說服力。
此外,這項技術將會自動檢測人的性別和年齡,并且還會與其他數據庫信息進行合并,從而建立起更為具體的個人信息。
Realeyes近日獲得的歐盟這筆資助將與來自倫敦帝國理工學院和德國帕紹大學的研究者、以及英國博彩公司PlayGen共同分享,以試圖深入研究測量人的情緒,從而識別人們是否對于自己看到的事物表現出喜歡的態(tài)度。
Realeyes 的支持者認為這項技術將有非常好的應用前景,例如可以提升駕駛員的安全性,提高課堂教學效率,幫助警察測謊等。而在商業(yè)方面,可以幫助商家進行視頻廣告監(jiān) 測和內容的重塑。比如AOL可以利用這項技術監(jiān)測什么樣的視頻廣告內容可以讓用戶產生興趣并能夠促使他們分享,從而制作提供更好的廣告內容。
當然,Realeyes的這項技術也涉及到了個人隱私的問題,尤其是在歐洲個人隱私受到更為嚴格的法律保護。Realeyes方面表示,這項技術經過了嚴格的審查,而且只有得到用戶非常明確的同意后他們才會進行視頻錄制和面部情緒研究。
CEO Mihkel Jäätma 認為,未來Realeyes將會進軍其他領域,尤其是他想創(chuàng)建一款心理健康產品,可以幫助人們變得快樂并且保持快樂。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現AI根據復雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結合大語言模型的敘事推理能力與音頻生成技術,通過交錯式推理生成、解耦橋接機制和漸進式訓練,能夠將復雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯合研發(fā)的VideoJAM技術,通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術僅需添加兩個線性層就能大幅提升運動質量,在多項測試中超越包括Sora在內的商業(yè)模型,為AI視頻生成的實用化應用奠定了重要基礎。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質量樣本的訓練數據集和MM-AlignBench評測基準,通過創(chuàng)新的數據生成和質量管控方法,讓AI在保持技術能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預測模型,能夠在不到一分鐘內完成10天全球天氣預報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經網絡技術,通過學習40年歷史數據掌握天氣變化規(guī)律,在極端天氣預測方面表現卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領域帶來了效率和精度的雙重突破。