作者:高飛
1. CCTV宣布了春晚的吉祥物海報,這次倒是沒有人說“設(shè)計得丑”,但是有很多人說“看起來是AI設(shè)計的”。這可比說“設(shè)計得丑”還嚴(yán)重,說“丑”頂多是水平差,說“是AI生成的”,那就是造假了。“真的差”肯定比“假的好”強(qiáng)一點(diǎn),這是大家的共識。比如,五月天被懷疑在演唱會上假唱就很嚴(yán)重,但伍佰不唱就沒問題。
2. 我相信,這套圖肯定不是AI設(shè)計的,因?yàn)榉覆簧?。以央視的體量,和春晚的名頭,一不差預(yù)算,二不差有人愿意義務(wù)勞動。后來CCTV也公布了設(shè)計師的草圖,證明其是人類勞動。
3. 不過,如果大家看一下設(shè)計,可能也會和很多質(zhì)疑的人產(chǎn)生同感,第一眼確實(shí)AI味兒很濃。從色彩到輪廓,充滿了“夫妻肺片”感。所以,為什么明明是人類設(shè)計的,卻看著像AI?
4. 因?yàn)槲覀冏呦蛄艘粋€誤區(qū)。從OpenAI的宮斗開始,有一個詞就流行開來,叫「對齊」——意思是怕機(jī)器的價值觀不正確,以及會產(chǎn)生幻覺,所以應(yīng)該花大力氣,讓AI和人類對齊。
5. 但實(shí)際上,從人類藝術(shù)創(chuàng)作史來看,人類其實(shí)一直是向機(jī)器對齊的。拿文藝復(fù)興來說,很多畫家是極擅長透視的。但是當(dāng)下身價最高的畫家,大衛(wèi)·霍克尼寫了一本書叫《隱秘的知識》,其中認(rèn)為15世紀(jì)之后的很多知名畫家,根本不是用眼睛畫畫的,而是用光學(xué)設(shè)備,在畫布上做投影畫畫的。簡單的說,就是對著影子描邊。
6. 那是不是印象派看起來不透視,就不受機(jī)器影響了呢?當(dāng)然不是,后來,技術(shù)機(jī)器對藝術(shù)的影響就更大了。在照相機(jī)發(fā)明之后,人類在畫畫的時候,就知道不用再把人物都頂著邊框畫了,而是可以裁邊的,這就是照相機(jī)邊框帶來的影響。見下圖左邊的半個人,這是典型的照相機(jī)構(gòu)圖造成的裁邊。
7、所以,我總結(jié)一下結(jié)論。因?yàn)闄C(jī)器造物效率太高了,我們很快就會被機(jī)器所造之物圍繞,從起床睜眼開始,我們看到的一切東西,只要不是生物,絕大多數(shù)都會是AI所造。不信的人回想一下,我們能看到多少手繪的畫,多少手機(jī)拍攝的照片?
8、再所以,一旦機(jī)器所造之物流行于人類社會,我們就不要奢望讓機(jī)器對齊人類了。技術(shù)機(jī)器會創(chuàng)造其獨(dú)有的文化、風(fēng)格、價值觀,不知不覺地影響人類。
9、回到開篇說的央視春晚吉祥物海報。它設(shè)計的確實(shí)是很像AI,但是這不是因?yàn)樗茿I設(shè)計的,而是設(shè)計它的人,或許不知不覺受了AI風(fēng)格的影響。而對于普通人而言,也因?yàn)榭戳颂嗟腁I創(chuàng)作,就會想當(dāng)然的看什么都像AI。
10、2022年,毫無疑問是一個分水嶺。從那一刻開始,真和假的界限將不再清晰,什么屬于人類,什么屬于機(jī)器也不再確定。今年,幾次和老朋友微軟中國CTO韋青交流,他說現(xiàn)在我們到了一個假的比真還真的時代。
11、昨天Google說自己的Gemini在大規(guī)模多任務(wù)語言理解中超過了人類專家《Gemini:我們規(guī)模最大、能力最強(qiáng)的 AI 模型》。我們要珍惜機(jī)器智能還要靠人機(jī)PK來證明自己的最后時光。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團(tuán)隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊通過對比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗(yàn)證有效性。