在2023世界人工智能大會(WAIC)中,語言智能科技企業(yè)蜜度不僅為觀眾呈現(xiàn)了諸多AIGC的沉浸式體驗(yàn),還發(fā)布了全新的大語言模型產(chǎn)品,深入辦公場景多元需求的同時,也開啟了大模型時代的辦公智能化進(jìn)程。
2分鐘自動生成輿情分析報告 大語言模型提升服務(wù)效率
7月8日,蜜巢智能輿情分析大語言模型重磅發(fā)布。模型專注于輿情報告自動撰寫,基于專家團(tuán)隊(duì)十余年高質(zhì)量分析報告的專業(yè)語料數(shù)據(jù)訓(xùn)練,凝聚大量專業(yè)知識和專家經(jīng)驗(yàn)。用戶簡單輸入事件信息配置即可全自動撰寫高質(zhì)量輿情事件分析報告,為突發(fā)事件的輿情追蹤、分析與研判提供支持。
通過融入蜜度以往的強(qiáng)大服務(wù)經(jīng)驗(yàn),結(jié)合蜜度自研蜜巢系列大語言模型的AI能力,蜜巢智能輿情分析大語言模型從“易用”與“速度”兩個維度提高了輿情報告自動生成的服務(wù)效率。在簡單的設(shè)置后,僅需2分鐘,就可以輸出一份高質(zhì)量的輿情分析報告。
在輿情分析報告領(lǐng)域,蜜度積累了豐富的行業(yè)經(jīng)驗(yàn)與分析方法,基于數(shù)量龐大的優(yōu)秀分析報告作為專業(yè)語料數(shù)據(jù)用于訓(xùn)練,讓這些來自專家團(tuán)隊(duì)的深度洞見與專業(yè)知識被模型悉數(shù)吸納,再經(jīng)由機(jī)器學(xué)習(xí)的不斷強(qiáng)化,最終呈現(xiàn)了人腦認(rèn)知經(jīng)驗(yàn)與AI計算能力的全新融合——蜜巢智能輿情分析大語言模型。
不僅如此,蜜度自身所具備的支持國產(chǎn)化軟硬件運(yùn)行環(huán)境的設(shè)備及能力,能夠基于華為昇騰昇思AI生態(tài),為用戶的日常使用提供更高效、安全、穩(wěn)定的保障。
蜜巢智能輿情分析大語言模型發(fā)布
聚焦垂直領(lǐng)域 服務(wù)千行百業(yè)
除了輿情報告自動生成的大語言模型,蜜度在此次WAIC上還發(fā)布了首個軟硬件一體國產(chǎn)化知識問答與內(nèi)容生成大語言模型——“蜜巢知識問答與內(nèi)容生成大語言模型”;國內(nèi)首個專為智能校對領(lǐng)域打造的垂直大語言模型——“蜜度文修”。
蜜度自研蜜巢系列大語言模型
蜜巢知識問答與內(nèi)容生成大語言模型,實(shí)時基于用戶所輸入的文檔進(jìn)行知識增強(qiáng),并對文檔中的相關(guān)知識進(jìn)行定制化的知識問答與內(nèi)容生成,實(shí)現(xiàn)“千文千面,千人千面”式內(nèi)容生成,幫助企業(yè)和個人打造專屬的知識問答與內(nèi)容生成大模型。蜜度文修是國內(nèi)首個專為智能校對領(lǐng)域打造的大語言模型,有著出色校對與潤色能力。
蜜巢知識問答與內(nèi)容生成大語言模型實(shí)現(xiàn)了“千文千面,千人千面”式內(nèi)容生成,模型能夠?qū)崟r基于用戶所輸入的文檔進(jìn)行知識增強(qiáng),并對文檔中的相關(guān)知識進(jìn)行定制化的知識問答與內(nèi)容生成,幫助企業(yè)和個人打造專屬的知識問答與內(nèi)容生成大模型;蜜度文修則以出色的校對與潤色能力,刷新了多類校對任務(wù)的最佳效果,更有效地輔助專業(yè)用戶提高校對質(zhì)量、提升校對速度、降低差錯率,為新聞出版、媒體稿件、政府公文等專業(yè)領(lǐng)域帶來工作模式迭代與效率提升。
作為一家以人工智能技術(shù)為核心的語言智能科技企業(yè),蜜度同時發(fā)布三款大語言模型,既可以看作本土科技企業(yè)以經(jīng)得起測試的優(yōu)秀模型水準(zhǔn),與全球AI發(fā)展進(jìn)程的齊步并行,也可以視為以模型服務(wù)垂直領(lǐng)域的開場。
未來,蜜度將持續(xù)以大語言模型(LLM)為技術(shù)底座,聚焦不同垂直行業(yè)的痛點(diǎn)與需求,研發(fā)和增強(qiáng)特定場景下的能力,并通過自建與用戶及市場需求匹配的垂直領(lǐng)域AI能力,積極開發(fā)大語言模型的落地應(yīng)用,更將發(fā)揮自身支持國產(chǎn)化軟硬件運(yùn)行環(huán)境的設(shè)備及能力,為千行百業(yè)注入AI加速度,用大模型的創(chuàng)新賦能,共同迎接全新的時代。
好文章,需要你的鼓勵
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運(yùn)動信息,顯著解決了當(dāng)前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運(yùn)動質(zhì)量,在多項(xiàng)測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。