中國上海 - 2025年3 月 12日--安森美(onsemi,美國納斯達(dá)克股票代號:ON)推出其首款實(shí)時(shí)、間接飛行時(shí)間 (iToF) 傳感器Hyperlux™ ID 系列,可對快速移動(dòng)物體進(jìn)行高精度長距離測量和三維成像。
Hyperlux ID 系列采用安森美全新專有全局快門像素架構(gòu)且自帶存儲(chǔ),可以捕捉完整場景,同時(shí)實(shí)時(shí)進(jìn)行深度測量。這種創(chuàng)新方法突破標(biāo)準(zhǔn) iToF 傳感器的局限性,實(shí)現(xiàn)最遠(yuǎn) 30 米的深度感知,是標(biāo)準(zhǔn) iToF 傳感器的四倍,而且外形尺寸更小。 此外,該傳感器系列還能同時(shí)生成黑白圖像和深度信息。 通過結(jié)合這兩種輸出,該傳感器系列可以提供全面的環(huán)境視圖,而無需為視覺和深度數(shù)據(jù)分別配置傳感器。
因此,Hyperlux ID 系列實(shí)現(xiàn)了簡化設(shè)計(jì)和業(yè)內(nèi)領(lǐng)先的超深度感知能力,能在動(dòng)態(tài)場景條件下工作以及捕捉快速移動(dòng)物體,這在以前都是無法實(shí)現(xiàn)的。
隨著自動(dòng)化和機(jī)器人技術(shù)在工業(yè)領(lǐng)域的廣泛應(yīng)用,快速且高效地獲取高精度深度信息對于提升在復(fù)雜環(huán)境中的生產(chǎn)效率和安全性變得至關(guān)重要。然而,到目前為止,iToF傳感器由于測距范圍有限、在惡劣光照條件下性能不佳且無法對移動(dòng)物體計(jì)算深度,其應(yīng)用受到了限制。
由于能夠?qū)σ苿?dòng)物體和高分辨率圖像進(jìn)行精確測量,Hyperlux ID 系列將有助于減少錯(cuò)誤和停機(jī)時(shí)間,優(yōu)化制造系統(tǒng)的流程,從而降低運(yùn)營成本。 此外,Hyperlux ID 系列還適用于面部識(shí)別、手勢檢測和 3D 視訊會(huì)議等消費(fèi)應(yīng)用場景。
Hyperlux ID 系列非常適合用于廣泛的工業(yè)環(huán)境,例如:
• 自動(dòng)化與機(jī)器人:通過檢測物體以實(shí)現(xiàn)更好的導(dǎo)航和避障,從而提高工廠車間的安全性。
• 制造與質(zhì)量控制:通過測量物體的體積和形狀、檢測缺陷,確保產(chǎn)品符合質(zhì)量標(biāo)準(zhǔn)。
• 物流與物料處理:通過測量托盤和貨物的位置、尺寸及貨物比例,以優(yōu)化倉儲(chǔ)管理和運(yùn)輸流程。
• 農(nóng)業(yè)與種植:通過測量植物高度、檢測疾病以及優(yōu)化灌溉和施肥過程,來監(jiān)測作物生長和健康狀況。
• 訪問控制系統(tǒng):為支付終端、家庭和商業(yè)入口系統(tǒng)等提供高精細(xì)、高準(zhǔn)確度的面部識(shí)別。
Hyperlux ID 傳感器系列融合了全局快門架構(gòu)和iToF技術(shù),實(shí)現(xiàn)精確且快速的深度感知。iToF技術(shù)通過測量從一個(gè)或多個(gè)垂直腔面發(fā)射激光器(VCSEL)發(fā)出的反射光的相移來感知深度。專有的像素架構(gòu)使傳感器能夠在一次曝光中同時(shí)捕獲并存儲(chǔ)四種不同的光相位,即時(shí)捕捉完整場景并提高深度測量的準(zhǔn)確性。此外,全局快門技術(shù)將所有傳感器像素與VCSEL同步,從而顯著減少來自其他光源的環(huán)境紅外噪聲。自帶的深度處理功能還可輸出實(shí)時(shí)結(jié)果,而無需昂貴的外部存儲(chǔ)器和高性能處理器。
“Hyperlux ID 系列不僅具備比市場上其他iToF傳感器更高的分辨率和更好的環(huán)境光抑制能力,其集成處理功能也給我們留下了深刻印象。該功能可高速生成深度、置信度和強(qiáng)度圖,使其特別適合捕捉移動(dòng)物體。” IDS Imaging Development Systems董事總經(jīng)理Alexander Lewinsky表示,“得益于與安森美的緊密合作,我們能夠非常迅速地開發(fā)并擴(kuò)展我們的3D相機(jī)系列,推出了一款高性價(jià)比的飛行時(shí)間相機(jī),大規(guī)模用于室內(nèi)和室外應(yīng)用。”
Hyperlux ID 系列包括120 萬像素全局快門、3.5µm背照式(BSI)像素傳感器。AF0130型號還自帶處理功能,令集成更簡單并降低系統(tǒng)成本。對于那些希望集成自有深度檢測算法的客戶可以選用AF0131,為他們的系統(tǒng)增加了更大的靈活性。
好文章,需要你的鼓勵(lì)
騰訊ARC實(shí)驗(yàn)室推出AudioStory系統(tǒng),首次實(shí)現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯(cuò)式推理生成、解耦橋接機(jī)制和漸進(jìn)式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準(zhǔn)測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時(shí)學(xué)習(xí)外觀和運(yùn)動(dòng)信息,顯著解決了當(dāng)前視頻生成模型中動(dòng)作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個(gè)線性層就能大幅提升運(yùn)動(dòng)質(zhì)量,在多項(xiàng)測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實(shí)用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實(shí)驗(yàn)室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準(zhǔn),通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時(shí)顯著提升人性化交互水平,為AI價(jià)值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團(tuán)隊(duì)開發(fā)的GraphCast是一個(gè)革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報(bào),準(zhǔn)確性超越傳統(tǒng)方法90%的指標(biāo)。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。