斯蒂芬·霍金貌似快變成了一個身上掛著廣告牌的男人,牌上寫著:“末日就要來臨了。”
他不僅警告我們外星人可能會摧毀人類,還擔心人工智能或許也會摧毀人類。
如今他又察覺到一個威脅,而這個威脅可能不僅僅會終結地球,而且會終結整個宇宙。
據(jù)英國《星期日泰晤士報》報道,霍金正在為上帝粒子(the God particle)感到擔憂。物理學家們在歐洲核子研究組織(CERN)用大型強子對撞機 (Large Hadron Collider)進行實驗期間發(fā)現(xiàn)了上帝粒子,對于解釋世界上的物體為何會有質量這個問題,上帝粒子是一個至關重要的因素。
然而,一本名為《Starmus》的新書收藏了一些著名科學家和天文學家發(fā)表的講座,在該書前言中,霍金擔心希格斯玻色子(Higgs Boson)可能會變得不穩(wěn)定。
他寫道:“希格斯粒子可能會在1000億吉電子伏特(GeV)以上高能量水平下變至亞穩(wěn)態(tài),這個潛在的特性令人擔憂。”
那么,這可能會導致什么后果呢?霍金解釋道:“這大概意味著,宇宙可能會遭受災難性的真空衰變,屆時這一真真空泡沫會以光速膨脹。這在任何時候都可能會發(fā)生,我們不會看到它的到來。”
在人們準備將其摯愛的人送至一些遙遠的恒星來避免這場災難前,霍金確實為我們提供了一些希望,但仿佛還是帶著一絲苦笑,他說道:“一個能夠達到1000億吉電子伏特能量的粒子加速器的規(guī)模將比地球還要大,而且這一實驗在目前的經濟形勢下不太可能獲得資助。”
從理論上說,他的擔心在本質上或許有效,但它們實際發(fā)生的可能性非常小。
不過,你一定會對霍金與希格斯玻色子的發(fā)現(xiàn)之間的關系感到疑惑。首先,由于希格斯玻色子的發(fā)現(xiàn),霍金失去了100美元的賭注。接著,他在去年沉思后表示,發(fā)現(xiàn)希格斯玻色子后,物理學變得不那么有趣了。
然而不管怎樣,鑒于他認為我們能留在地球上的時間只剩大約1000年,那么在機器人擁有自己的想法消滅人類之前,還不如好好探索每一種可能場景。
好文章,需要你的鼓勵
新加坡國立大學研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓練AI玩簡單撲克游戲就能讓其數(shù)學推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學題目作為訓練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉移到數(shù)學解題中,為AI訓練提供了新思路。
同濟大學團隊開發(fā)的GIGA-ToF技術通過融合多幀圖像的"圖結構"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術利用圖像間的不變幾何關系,結合深度學習和數(shù)學優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領域提供更可靠的3D視覺解決方案。
伊利諾伊大學研究團隊通過對比實驗發(fā)現(xiàn),經過強化學習訓練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構聯(lián)合提出SparseLoRA技術,通過動態(tài)稀疏性實現(xiàn)大語言模型訓練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓練效率,已在多個任務上驗證有效性。