。
估計(jì)就更少了,例如科學(xué)界的女性、非洲的女性和亞洲的女性等。
。
這些女性人物卻被忽視,或是被以不成比例的方式在維基百科上呈現(xiàn)。”
”
”人工智能模型,該模型可以自動(dòng)研究并創(chuàng)建一些重要人物的高質(zhì)量傳記文章。
,附上引證信息的來(lái)源。最終達(dá)到涵蓋維基百科傳記所需要的所有元素,如傳記人物的早期生活、教育和職業(yè)。
,也就是非事實(shí)的內(nèi)容;此外在語(yǔ)義方面,AI的連貫性和邏輯也有些力不從心。
橘色文本則表示幻覺(jué),是由模型腦補(bǔ),無(wú)法被驗(yàn)證的資訊。
,人類研究員或作家可以根據(jù)這些信息迅速上手并完成這篇文章。
跨性別和二元性別人物的傳記,往往長(zhǎng)度更長(zhǎng),但是大部分章節(jié)都是描寫(xiě)個(gè)人生活,而非個(gè)人成就。
為了改進(jìn)該模型,Meta還發(fā)布了一個(gè)數(shù)據(jù)集,數(shù)據(jù)集可用于評(píng)估該模型基于1527份來(lái)自“邊緣化群體”的女性傳記中的表現(xiàn)。Meta表示,這些數(shù)據(jù)可用于訓(xùn)練該模型的迭代并評(píng)估模型的性能。
撰文 | 海外來(lái)電
海外來(lái)電
來(lái)源 | SiliconANGLE
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語(yǔ)言模型的敘事推理能力與音頻生成技術(shù),通過(guò)交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開(kāi)辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過(guò)讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問(wèn)題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語(yǔ)言模型人性化對(duì)話問(wèn)題。該研究創(chuàng)建了包含20萬(wàn)高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過(guò)創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開(kāi)發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過(guò)學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來(lái)了效率和精度的雙重突破。
科技行者旗下編譯團(tuán)隊(duì),聚焦海外新技術(shù)、新觀點(diǎn)、新風(fēng)向。