Simon Barnes在《運(yùn)動的意義》(The Meaning Sport)中留下一句箴言:“全部體育運(yùn)動都有相同的內(nèi)核。喜歡其一,相當(dāng)于喜歡所有。”在這本書中,作者希望深刻剖析競技體育的吸引力來源與核心意義。
這句話也反映出一項(xiàng)基本事實(shí)——盡管大多數(shù)運(yùn)動都有共通之處,但個人對于不同項(xiàng)目、不同賽事的關(guān)注屬于完全主觀的個人選擇。這似乎是個有違直覺的結(jié)論,畢竟很多粉絲對競技項(xiàng)目都有著強(qiáng)烈的偏好與選擇性。
確實(shí),不同的運(yùn)動會在觀眾當(dāng)中激發(fā)不同的情感共鳴。由Freeview委托進(jìn)行的一項(xiàng)最新研究,就試圖通過AI技術(shù)觀察參與者們在觀看不同賽事時的感受,借此為討論引入一點(diǎn)客觀元素。
AI體育
“情感AI”已經(jīng)在眾多行業(yè)中被用于分析消費(fèi)者情感信息,包括人力資源、醫(yī)療保健及市場營銷等等。更重要的是,AI技術(shù)甚至能幫助企業(yè)通過收集調(diào)查數(shù)據(jù)整理出當(dāng)事人自己可能都不甚了然的深層信息。
RealEyes的Emotional Recognition軟件就能跟蹤并分析面部表情,并根據(jù)眼睛、眉毛、鼻子和嘴巴的變化對不同對象進(jìn)行情緒分類。計(jì)算機(jī)視覺及機(jī)器學(xué)習(xí)功能甚至可以檢測到最細(xì)微的表情變化,借此對主體情感做出分類。 研究表明,居家觀眾們對于網(wǎng)球(18%)的正面情緒反饋?zhàn)顝?qiáng),其快樂度相較于觀看標(biāo)準(zhǔn)視頻內(nèi)容要高出50%。而且跟大多數(shù)人的印象不同,馬術(shù)(29%)、花樣游泳(28%)以及體操(25%)等對抗性相對不那么激烈的運(yùn)動,卻更容易引發(fā)緊張情緒。
F1賽車(18%)最容易引起觀眾的震驚情緒,這應(yīng)該源自運(yùn)動本身強(qiáng)烈的速度感與引發(fā)車禍的巨大風(fēng)險。研究人員們表示,震驚的情緒主要依靠突然睜大眼睛以及張開嘴巴等動作進(jìn)行檢測。而拳擊(5%)則因?yàn)槊土业幕^程與隨時可能出現(xiàn)的擊倒畫面而引發(fā)不少觀眾的厭惡情緒。
這項(xiàng)技術(shù)甚至能夠幫助我們了解體育觀眾的困惑情緒。網(wǎng)球引發(fā)困惑感受的比例高達(dá)25%,F(xiàn)1賽車則為12%。在觀賽參與度方面,足球以24%的成績遙遙領(lǐng)先,觀眾們會在觀看比賽時做出各種各樣的豐富表情;拳擊則表現(xiàn)不佳,僅吸引到15%的觀眾。
具體反應(yīng)也跟觀眾所處的年齡段相關(guān)。40歲或以上的觀眾對足球往往表現(xiàn)出輕蔑的態(tài)度,而年輕觀眾則在觀看橄欖球賽時表現(xiàn)出強(qiáng)烈的緊張感乃至恐懼感。
雖然轉(zhuǎn)播公司及贊助商在制定賽事投資判斷時需要考慮多方面因素,但AI分析給出的這些結(jié)論在增強(qiáng)觀眾吸引力、說服商業(yè)合作伙伴時仍有著極為強(qiáng)大的現(xiàn)實(shí)意義。例如,如果某個品牌希望能讓受眾感到喜悅與興奮之情,那么網(wǎng)球比賽顯然更符合他們的形象定位。
體育組織自身也可以利用這些數(shù)據(jù)定制新的產(chǎn)品或數(shù)字化服務(wù)。例如,那種容易讓觀眾陷入“困惑感”的運(yùn)動可以發(fā)布新的移動應(yīng)用,通過基于統(tǒng)計(jì)數(shù)據(jù)的洞察結(jié)論幫助人們快速理解比賽內(nèi)容。F1主辦方在最近幾個賽季中已經(jīng)在做出相應(yīng)嘗試,幫助更多剛剛?cè)腴T的觀眾理解賽道比拼上的諸多細(xì)節(jié)。
雖然AI技術(shù)的應(yīng)用不可能在一夜之間就顛覆一切,但此次調(diào)查證明隨著體育產(chǎn)業(yè)的日益數(shù)字化,科技成果完全能夠給行業(yè)的幾乎各個側(cè)面帶來不同程度的增強(qiáng)。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗(yàn)證有效性。