近日,即時通訊云領(lǐng)導(dǎo)者環(huán)信上線了“IM Geek”開發(fā)者社區(qū),同時是國內(nèi)首個移動社交開源社區(qū),邁出了環(huán)信開源計劃堅實的一步。用戶可以通過社區(qū)首頁鏈接(www.imgeek.org )和環(huán)信官網(wǎng)首頁(www.easemob.com)導(dǎo)航欄的社區(qū)通道兩種方式進入。環(huán)信老用戶不需要重新注冊,使用環(huán)信賬號即可登錄社區(qū)。
據(jù)環(huán)信相關(guān)負責(zé)人介紹,社區(qū)命名為“IM Geek” ,主要就是為即時通訊和移動社交方向的極客和開發(fā)者小伙伴們提供服務(wù),這是一群以創(chuàng)新、技術(shù)和時尚為生命意義的人,這群人不分性別,不分年齡,共同的戰(zhàn)斗在新經(jīng)濟、尖端技術(shù)和世界時尚風(fēng)潮的前線。而極客的精神內(nèi)核,就是相信技術(shù)可以解決一切問題,相信那些看起來很瘋狂的事情,正是這種崇尚技術(shù)的極客精神,將讓環(huán)信和小伙伴們變得更美好。
環(huán)信始終以開源作為環(huán)信技術(shù)服務(wù)的核心精神,相信開源將為合作伙伴和開發(fā)者創(chuàng)造更大的價值。環(huán)信希望通過開源,可以和廣大開發(fā)者一起,發(fā)起更多有意思、有價值、有意義的開源項目,向整個開源軟件世界貢獻代碼。其中就包括了環(huán)信開源的即時通訊云 SDK代碼,可以讓開發(fā)者無障礙地在自己的應(yīng)用中使用即時通訊能力。同時,環(huán)信將繼續(xù)有步驟的推進即時通訊云全面開源計劃,目前已經(jīng)率先將SDK與UI進行了開源,后續(xù)還會提供更多、更全面、更深層次的開源,通過上述手段,最終實現(xiàn)所有代碼的開源。
另一方面,“IM Geek”開源社區(qū)并不局限于環(huán)信自身的產(chǎn)品服務(wù)和開源資源,社區(qū)內(nèi)將同時包含各種與移動社交開發(fā)有關(guān)的優(yōu)質(zhì)資源和討論板塊,其中就有插件、源代碼分享以及為眾多友商提供的服務(wù)板塊。在社區(qū)建設(shè)中,環(huán)信還將陸續(xù)引入更多的優(yōu)質(zhì)開源資源和合作伙伴專區(qū),以吸引廣大的極客和開發(fā)者們注冊這一開源社區(qū)并投入其中。
據(jù)了解,在社區(qū)上線時,環(huán)信還將提供一些特有資源下載福利,例如個性化表情、完全免費的開源插件等。在個性化表情方面,環(huán)信準備了一批適用于各個客戶端UI的優(yōu)質(zhì)表情供開發(fā)者下載使用。如果想了解更多福利需登錄社區(qū)由開發(fā)者自行挖掘。
環(huán)信作為國內(nèi)規(guī)模最大的即時通訊云服務(wù)平臺,已經(jīng)成為國內(nèi)即時通訊云服務(wù)行業(yè)中名符其實的領(lǐng)軍企業(yè),此次牽頭為移動社交領(lǐng)域的開源愛好者、開發(fā)者們搭建了一個分享和交流的第三方公益社區(qū)平臺,不僅持續(xù)傳遞著環(huán)信的開源精神,還將進一步推動整個即時通訊云行業(yè)和移動社交領(lǐng)域的發(fā)展。同時, “IM Geek”社區(qū)將向所有開源廠商開放,為所有開發(fā)者提供服務(wù)。
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟大學(xué)團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。