科技行者 11月6日 北京消息:汽車半導(dǎo)體供應(yīng)商恩智浦半導(dǎo)體NXP Semiconductors N.V.(納斯達(dá)克代碼:NXPI)推出汽車車規(guī)級(jí)深度學(xué)習(xí)工具包eIQ Auto,擴(kuò)展了公司eIQ機(jī)器學(xué)習(xí)產(chǎn)品系列。該工具包旨在幫助客戶從開發(fā)環(huán)境快速地轉(zhuǎn)向滿足汽車行業(yè)嚴(yán)格標(biāo)準(zhǔn)的人工智能應(yīng)用集成。eIQ Auto能夠?qū)⒒谏疃葘W(xué)習(xí)的算法應(yīng)用到視覺、自動(dòng)駕駛、傳感器融合、駕駛員監(jiān)控和其他不斷發(fā)展的汽車應(yīng)用。
eIQ Auto工具包使客戶能在PC端/云端/GPU環(huán)境下對(duì)汽車產(chǎn)品進(jìn)行開發(fā),并將其神經(jīng)網(wǎng)絡(luò)集成到S32處理器上。恩智浦的工具包和汽車級(jí)推斷引擎使神經(jīng)網(wǎng)絡(luò)在具有嚴(yán)格安全要求的汽車應(yīng)用中更容易部署。一個(gè)很好的例子是,在基于計(jì)算機(jī)視覺的系統(tǒng)中,傳統(tǒng)計(jì)算機(jī)視覺算法加速向基于深度學(xué)習(xí)的算法轉(zhuǎn)變。
深度學(xué)習(xí)有望在目標(biāo)檢測(cè)和分類中提供優(yōu)于“傳統(tǒng)”計(jì)算機(jī)視覺算法的檢測(cè)精度和可維護(hù)性,但復(fù)雜性和高昂的成本阻礙了全車規(guī)的集成和實(shí)現(xiàn)。
eIQ Auto工具包旨在降低為深度學(xué)習(xí)算法的每一層選擇,并集成嵌入式計(jì)算引擎所需的投資成本,從而幫助客戶縮短產(chǎn)品上市時(shí)間。與其他嵌入式深度學(xué)習(xí)框架相比,自動(dòng)選擇過(guò)程使給定模型的性能提高了30倍。實(shí)現(xiàn)此性能的方式是優(yōu)化可用資源的使用,減少時(shí)間和開發(fā)工作量——這是基于恩智浦的內(nèi)部基準(zhǔn),使用單線程Tensor Flow(TF) Lite浮點(diǎn)模型與運(yùn)行于S32V234雙APEX-2上的Auto eIQ量化版本進(jìn)行比較。這些紅利可幫助開發(fā)人員對(duì)應(yīng)用進(jìn)行評(píng)估、微調(diào)和部署,以獲得最大化的總體性能。
符合汽車車規(guī)級(jí)開發(fā)標(biāo)準(zhǔn)和功能安全要求是eIQ Auto和S32V集成的關(guān)鍵優(yōu)勢(shì)。eIQ Auto的推斷引擎遵照嚴(yán)格的開發(fā)要求,符合Automotive SPICE®標(biāo)準(zhǔn)。S32V處理器提供最高級(jí)別的功能安全,支持ISO 26262,最高滿足ASIL-C、IEC 61508和DO 178標(biāo)準(zhǔn)。
恩智浦副總裁兼高級(jí)駕駛員輔助解決方案總經(jīng)理Kamal Khouri表示:“新一代汽車應(yīng)用,比如當(dāng)前自動(dòng)駕駛測(cè)試車輛的集成方案,系統(tǒng)龐大,能耗高且不可能批量生產(chǎn)。新的eIQ工具包可幫助我們的客戶在具有最高級(jí)別安全性和可靠性的嵌入式處理器環(huán)境中部署強(qiáng)大的神經(jīng)網(wǎng)絡(luò)。”
恩智浦的Auto eIQ深度學(xué)習(xí)工具包和車規(guī)級(jí)S32V芯片共同為新一代汽車應(yīng)用提供性能、功能安全和質(zhì)量的強(qiáng)大基礎(chǔ)。
恩智浦eIQ Auto工具包包括:
eIQ Auto工具包亮點(diǎn)在于:
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長(zhǎng)篇音頻故事。該系統(tǒng)結(jié)合大語(yǔ)言模型的敘事推理能力與音頻生成技術(shù),通過(guò)交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場(chǎng)景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測(cè)試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過(guò)讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問(wèn)題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測(cè)試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語(yǔ)言模型人性化對(duì)話問(wèn)題。該研究創(chuàng)建了包含20萬(wàn)高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評(píng)測(cè)基準(zhǔn),通過(guò)創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對(duì)齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測(cè)模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過(guò)學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測(cè)方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來(lái)了效率和精度的雙重突破。