13年前,發(fā)明了葛優(yōu)躺的葛大爺為中國移動(dòng)的神州行品牌,拍了一只當(dāng)時(shí)很出名的廣告。
廣告的其中一段詞是這樣說的:
“就說這手機(jī)卡,有一說一啊,我不挑號(hào),號(hào)好不好是虛的,我挑卡!神州行,是吧,用的人多!這就跟進(jìn)飯館兒一樣,一條街上,哪家人多我進(jìn)哪家!神州行,聽說將近兩億人用,我……相信群眾!神州行,我看行!”
群眾聽了葛優(yōu)的話說,在廣告里回應(yīng):對(duì),信葛優(yōu),不信忽悠。
十幾年后,葛優(yōu)的預(yù)言成真了,群眾的意見,真的成了影響一個(gè)飯館生意好壞的決定因素。
但我們不用去街邊看群眾意見了,拿出手機(jī)就可以。
時(shí)代在變化,相比葛大爺還在拍電視劇的當(dāng)年,當(dāng)產(chǎn)品、服務(wù)供給已經(jīng)過剩,線下看顧客流量的時(shí)間成本實(shí)在太高,我們不用去街邊看哪家店人群眾更喜歡,在網(wǎng)上就可以輕松看出哪家店的群眾留言更多,好評(píng)更多,這些店就是“群眾的選擇”。
無論是出差還是旅行,甚至在屋里點(diǎn)一份外賣,這些留言、評(píng)論組成的星級(jí),果然成了我們選擇飯館的標(biāo)準(zhǔn),葛大爺說對(duì)了。
我們的行為當(dāng)然是非常合理的,我們總不能選擇口碑差的飯館吧。
但是,我們的行為無形中賦予了一種人極大的權(quán)力,他們就是——話嘮。
說「話嘮」之前,我們先講與話嘮對(duì)應(yīng)的另外一部分人群,他們則是——「沉默的大多數(shù)」。
沉默的大多數(shù),代表多數(shù)的你我,大家可以看自己周圍的例子,有多少人愿意在社交平臺(tái)上,去寫一大段評(píng)論,點(diǎn)擊評(píng)級(jí),去評(píng)價(jià)一個(gè)飯館,其實(shí)很少。
我們就是這些沉默的絕大多數(shù),在數(shù)字世界,我們只是“網(wǎng)絡(luò)評(píng)價(jià)”的閱讀者,而不是評(píng)價(jià)者。
而話嘮,就是不沉默的少數(shù)人,他們和我們不同,他們?cè)敢猱?dāng)評(píng)價(jià)者。
這些少數(shù)人,決定了一個(gè)個(gè)飯館的口碑高低。
而話嘮決定的不止是飯館的評(píng)價(jià),某種程度,他們還在統(tǒng)治世界。
沉默的大多數(shù)沉默的原因有很多,一種情況是懶于參與公眾意見,另外一種則是因?yàn)樗麄冃⌒闹?jǐn)慎。
謹(jǐn)慎的原因也有很多,他們覺得自己可能會(huì)犯錯(cuò),只能代表個(gè)人看法,或者擔(dān)心引來專業(yè)人士的嘲笑。
而話嘮不是這樣的,話嘮對(duì)于網(wǎng)絡(luò)發(fā)聲很勤勞,他們相信自己的正確性,如果話嘮覺得別人和自己說的不一樣,原因通常只有一個(gè),那就是對(duì)方太蠢。
沉默的人保持沉默,話嘮持續(xù)發(fā)聲。
久而久之,在網(wǎng)絡(luò)世界中,看似能代表所有人的評(píng)價(jià)體系,并非所有人,他們只是話嘮。
話嘮的聲音,即使是錯(cuò)誤的,也會(huì)蓋過正確的,因?yàn)榧词故钦_的聲音,如果沉默不語,還有什么用呢?
在這個(gè)世界,講錯(cuò)不怕,但怕不講。
美譽(yù)度不重要,聲量度才重要。
因?yàn)槁暳看螅L期看,相信的人總會(huì)越來越多。
所以,電梯里的分鐘廣告越來越喜歡重復(fù)的念商標(biāo),它們也是話嘮。
于是,話嘮的權(quán)力越來越大,沉默者的權(quán)力越來越小。
在大洋彼岸就有好例子:
當(dāng)總統(tǒng),或者想當(dāng)總統(tǒng),發(fā)推文最重要;沉默的族群,從來都被所忽視,因?yàn)榉凑麄?ldquo;只愛看公號(hào)不愛去投票”。
廣告里,葛優(yōu)說,相信群眾。群眾說,信葛優(yōu),不信忽悠。
群眾可能錯(cuò)了,因?yàn)樵谶@個(gè)時(shí)代,信群眾,就是信話嘮,就可能是在信忽悠。
一千個(gè)人眼里,有一千個(gè)哈姆雷特?
不不不,只要有一千個(gè)人都說哈士奇是哈姆雷特,那哈士奇就是哈姆雷特。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對(duì)話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。