Simon Barnes在《運動的意義》(The Meaning Sport)中留下一句箴言:“全部體育運動都有相同的內(nèi)核。喜歡其一,相當(dāng)于喜歡所有。”在這本書中,作者希望深刻剖析競技體育的吸引力來源與核心意義。
這句話也反映出一項基本事實——盡管大多數(shù)運動都有共通之處,但個人對于不同項目、不同賽事的關(guān)注屬于完全主觀的個人選擇。這似乎是個有違直覺的結(jié)論,畢竟很多粉絲對競技項目都有著強烈的偏好與選擇性。
確實,不同的運動會在觀眾當(dāng)中激發(fā)不同的情感共鳴。由Freeview委托進行的一項最新研究,就試圖通過AI技術(shù)觀察參與者們在觀看不同賽事時的感受,借此為討論引入一點客觀元素。
AI體育
“情感AI”已經(jīng)在眾多行業(yè)中被用于分析消費者情感信息,包括人力資源、醫(yī)療保健及市場營銷等等。更重要的是,AI技術(shù)甚至能幫助企業(yè)通過收集調(diào)查數(shù)據(jù)整理出當(dāng)事人自己可能都不甚了然的深層信息。
RealEyes的Emotional Recognition軟件就能跟蹤并分析面部表情,并根據(jù)眼睛、眉毛、鼻子和嘴巴的變化對不同對象進行情緒分類。計算機視覺及機器學(xué)習(xí)功能甚至可以檢測到最細微的表情變化,借此對主體情感做出分類。 研究表明,居家觀眾們對于網(wǎng)球(18%)的正面情緒反饋最強,其快樂度相較于觀看標(biāo)準(zhǔn)視頻內(nèi)容要高出50%。而且跟大多數(shù)人的印象不同,馬術(shù)(29%)、花樣游泳(28%)以及體操(25%)等對抗性相對不那么激烈的運動,卻更容易引發(fā)緊張情緒。
F1賽車(18%)最容易引起觀眾的震驚情緒,這應(yīng)該源自運動本身強烈的速度感與引發(fā)車禍的巨大風(fēng)險。研究人員們表示,震驚的情緒主要依靠突然睜大眼睛以及張開嘴巴等動作進行檢測。而拳擊(5%)則因為猛烈的互毆過程與隨時可能出現(xiàn)的擊倒畫面而引發(fā)不少觀眾的厭惡情緒。
這項技術(shù)甚至能夠幫助我們了解體育觀眾的困惑情緒。網(wǎng)球引發(fā)困惑感受的比例高達25%,F(xiàn)1賽車則為12%。在觀賽參與度方面,足球以24%的成績遙遙領(lǐng)先,觀眾們會在觀看比賽時做出各種各樣的豐富表情;拳擊則表現(xiàn)不佳,僅吸引到15%的觀眾。
具體反應(yīng)也跟觀眾所處的年齡段相關(guān)。40歲或以上的觀眾對足球往往表現(xiàn)出輕蔑的態(tài)度,而年輕觀眾則在觀看橄欖球賽時表現(xiàn)出強烈的緊張感乃至恐懼感。
雖然轉(zhuǎn)播公司及贊助商在制定賽事投資判斷時需要考慮多方面因素,但AI分析給出的這些結(jié)論在增強觀眾吸引力、說服商業(yè)合作伙伴時仍有著極為強大的現(xiàn)實意義。例如,如果某個品牌希望能讓受眾感到喜悅與興奮之情,那么網(wǎng)球比賽顯然更符合他們的形象定位。
體育組織自身也可以利用這些數(shù)據(jù)定制新的產(chǎn)品或數(shù)字化服務(wù)。例如,那種容易讓觀眾陷入“困惑感”的運動可以發(fā)布新的移動應(yīng)用,通過基于統(tǒng)計數(shù)據(jù)的洞察結(jié)論幫助人們快速理解比賽內(nèi)容。F1主辦方在最近幾個賽季中已經(jīng)在做出相應(yīng)嘗試,幫助更多剛剛?cè)腴T的觀眾理解賽道比拼上的諸多細節(jié)。
雖然AI技術(shù)的應(yīng)用不可能在一夜之間就顛覆一切,但此次調(diào)查證明隨著體育產(chǎn)業(yè)的日益數(shù)字化,科技成果完全能夠給行業(yè)的幾乎各個側(cè)面帶來不同程度的增強。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。