av天堂久久天堂色综合,最近中文字幕mv免费高清在线,在线a级毛片免费视频,av动漫,中文字幕精品亚洲无线码一区

微信掃一掃,關注公眾號

  • 科技行者

  • 算力行者

見證連接與計算的「力量」

首頁 印第安納大學團隊:讓機器人"眼睛"更聰明的視覺理解新方法

印第安納大學團隊:讓機器人"眼睛"更聰明的視覺理解新方法

2025-08-04 13:33
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-08-04 13:33 ? 科技行者

這項由印第安納大學布盧明頓分校信息與計算工程學院的Md. Al-Masrur Khan、Durgakant Pushp和Lantao Liu團隊完成的研究,發(fā)表于2025年7月的arXiv預印本平臺。想要深入了解這項研究的讀者,可以通過https://github.com/Masrur02/AFRDA獲取完整的代碼實現(xiàn),或訪問相關學術數(shù)據(jù)庫查閱完整論文。

想象你正在教一個機器人如何在陌生環(huán)境中導航,就像教一個剛學會走路的孩子認識世界一樣。這個孩子需要學會區(qū)分什么是路、什么是墻、什么是障礙物。傳統(tǒng)的做法是讓孩子在一個安全的室內(nèi)環(huán)境(比如家里)學習,然后直接帶到復雜的戶外環(huán)境。但問題是,室內(nèi)學到的經(jīng)驗往往在戶外不太管用——家里平整的地板和戶外坑坑洼洼的土路完全不同。

這就是計算機視覺領域一個經(jīng)典難題的生動寫照。研究人員通常會用大量精心標注的合成圖像(就像給孩子看圖畫書)來訓練人工智能模型,讓它學會識別圖像中的各種物體和區(qū)域。然而,當這個模型面對真實世界的圖像時,往往表現(xiàn)得差強人意。這種現(xiàn)象被稱為"域適應"問題——模型需要從一個"域"(合成環(huán)境)適應到另一個"域"(真實環(huán)境)。

印第安納大學的研究團隊針對這個問題提出了一個創(chuàng)新解決方案,他們稱之為AFRDA(Attentive Feature Refinement for Domain Adaptive Semantic Segmentation)。這個方法的核心思想就像給機器人裝上了一副更智能的眼鏡,不僅能看清楚細節(jié),還能理解整體環(huán)境的語義信息。

一、從粗糙到精細:雙重視角的智能融合

要理解AFRDA的工作原理,可以把它比作人類觀察世界的方式。當你走進一個陌生的房間時,你的大腦會同時進行兩種處理:一方面快速掃視整個房間,了解大致布局(這相當于低分辨率的全局理解);另一方面仔細觀察重要細節(jié),比如門把手的位置、地面的材質(zhì)(這相當于高分辨率的局部分析)。

傳統(tǒng)的計算機視覺系統(tǒng)往往只能做好其中一種處理,要么擅長把握全局但丟失細節(jié),要么善于捕捉細節(jié)但缺乏整體理解。AFRDA的創(chuàng)新之處在于巧妙地將這兩種能力結合起來,讓機器同時具備"遠視"和"近視"的優(yōu)勢。

具體來說,AFRDA包含一個叫做"自適應特征精煉"(AFR)的核心模塊。這個模塊就像一個經(jīng)驗豐富的攝影師,既能掌握整體構圖,又能關注局部細節(jié)。它通過分析低分辨率圖像中的語義信息(比如"這里是天空,那里是建筑物"),來指導高分辨率圖像的精細分析。

更有趣的是,AFR模塊還特別關注圖像中的邊界信息。就像人類在觀察物體時特別注意物體的輪廓一樣,這個模塊會提取高頻成分——那些代表邊緣、紋理和精細結構的信息。通過結合全局語義理解和局部邊界細節(jié),AFR能夠產(chǎn)生更準確、更清晰的圖像分割結果。

二、不確定性引導的智能注意力機制

AFRDA的另一個亮點是引入了"不確定性"概念。這就像一個謹慎的決策者,對自己不太確定的判斷會格外小心。在圖像處理中,模型有時會對某些區(qū)域的識別結果不太確定,比如在陰影中的物體或者模糊的邊界區(qū)域。

AFR模塊通過兩個互補的注意力機制來處理這種不確定性。第一個機制叫做"類別感知邏輯引導注意力"(CALA),它主要負責利用低分辨率圖像中的全局類別信息來指導高分辨率特征的提取。這就像一個導游,先告訴你這個景點的整體情況,然后幫你關注最值得看的細節(jié)。

第二個機制叫做"不確定性抑制高分辨率特征注意力"(UHFA),它的作用是在模型不確定的地方降低注意力權重,在確定的地方增強注意力。這種設計很像人類的注意力機制——當我們對某個視覺信息不太確定時,會本能地降低對它的關注度,而將更多注意力轉(zhuǎn)向我們更有把握的信息。

這兩個注意力機制通過一個可學習的參數(shù)進行動態(tài)平衡,就像調(diào)節(jié)望遠鏡的焦距一樣,根據(jù)不同的觀察需求自動調(diào)整關注點。這種設計使得AFRDA能夠在保持全局一致性的同時,顯著提高邊界預測的準確性。

三、實驗驗證:從城市街道到森林小徑

為了驗證AFRDA的有效性,研究團隊在多個具有挑戰(zhàn)性的數(shù)據(jù)集上進行了廣泛的實驗。這些實驗就像給新方法安排了多場"考試",每場考試都有不同的難點。

第一場考試是在城市環(huán)境中進行的。研究人員使用了兩個著名的合成數(shù)據(jù)集:GTA V(一個從游戲中提取的虛擬城市場景數(shù)據(jù)集)和SYNTHIA(另一個合成城市數(shù)據(jù)集),然后測試模型在真實城市街道數(shù)據(jù)集Cityscapes上的表現(xiàn)。結果顯示,AFRDA在GTA V到Cityscapes的適應任務中取得了76.60%的平均交并比(mIoU),比基線方法提高了1.05%。在SYNTHIA到Cityscapes的任務中,AFRDA也實現(xiàn)了1.04%的性能提升。

這種提升看似微小,但在計算機視覺領域,每一個百分點的提升都需要付出巨大努力。更重要的是,AFRDA在一些特別困難的類別上表現(xiàn)尤為出色,比如"圍欄"、"電線桿"、"交通燈"、"交通標志"和"火車"等。這些物體通常尺寸較小或形狀復雜,是傳統(tǒng)方法的"老大難"問題。

第二場考試更具挑戰(zhàn)性,涉及從城市環(huán)境到森林環(huán)境的跨域適應。研究團隊使用RUGD(一個越野環(huán)境數(shù)據(jù)集)作為源域,在他們自己收集的森林數(shù)據(jù)集MESH上進行測試。這就像讓一個只在城市生活過的人突然到森林中生存,需要重新學習如何識別各種植被、地形和自然障礙物。

在這個更具挑戰(zhàn)性的場景中,AFRDA同樣表現(xiàn)出色。定性結果顯示,當其他方法在識別干燥或發(fā)黃的草地時經(jīng)常出錯時,AFRDA能夠準確識別"草地"、"灌木"、"天空"等元素。這種能力對于野外機器人導航至關重要,因為錯誤的地形識別可能導致機器人陷入困境或發(fā)生事故。

四、模塊化設計:即插即用的智能升級

AFRDA的設計哲學體現(xiàn)了一種"即插即用"的理念。AFR模塊就像一個通用的智能升級包,可以輕松集成到現(xiàn)有的各種域適應框架中,而不需要重新設計整個系統(tǒng)架構。

研究團隊驗證了這種模塊化設計的有效性。他們將AFR模塊分別集成到三個不同的現(xiàn)有方法中:HRDA、MIC和ERF。結果顯示,無論與哪種基礎方法結合,AFR都能帶來穩(wěn)定的性能提升。這就像給不同品牌的汽車都裝上了同一款智能導航系統(tǒng),每輛車的駕駛體驗都得到了明顯改善。

這種模塊化設計的另一個優(yōu)勢是計算效率。盡管AFR增加了一些額外的計算步驟,但其輕量級的設計確保了訓練和推理速度的影響很小。實驗數(shù)據(jù)顯示,添加AFR模塊后,訓練速度只有輕微下降(比如HRDA的訓練速度從0.92 it/s降至0.85 it/s),而推理速度基本保持不變。這意味著在實際應用中,用戶可以獲得更好的性能而無需擔心顯著增加的計算成本。

五、深入解析:兩個注意力機制的協(xié)同工作

為了更好地理解AFRDA的工作原理,讓我們深入探討兩個核心注意力機制是如何協(xié)同工作的。

CALA機制的工作過程就像一個經(jīng)驗豐富的藝術品鑒定師。當面對一幅畫時,鑒定師首先會從整體上判斷這幅畫的風格、年代和可能的作者(對應低分辨率的全局語義理解)。然后,鑒定師會根據(jù)這些整體判斷,有針對性地觀察特定的細節(jié)——比如如果判斷這是印象派作品,就會特別關注筆觸和色彩運用(對應高分辨率特征的有針對性提?。?。

具體來說,CALA首先將低分辨率的語義預測結果通過一個1×1卷積層壓縮成單通道的注意力圖。這個過程就像將復雜的語義信息濃縮成一張"重要性地圖",標明哪些區(qū)域需要特別關注。同時,CALA還會考慮高分辨率特征的不確定性,將兩者相乘得到一個調(diào)制后的注意力圖。這確保了在不確定性高的區(qū)域會更多地依賴全局語義指導,而在確定性高的區(qū)域則保持高分辨率的空間精度。

CALA還有一個獨特的設計:它會提取低分辨率預測結果的高頻成分。這個過程使用高斯濾波器從原始預測中減去平滑版本,得到的殘差包含了邊界和紋理信息。這就像攝影師使用銳化濾鏡來增強照片的細節(jié)一樣,CALA通過這種方式捕獲了重要的邊界信息。

UHFA機制則扮演著"質(zhì)量控制員"的角色。它專門處理高分辨率特征,通過全局平均池化將多通道特征壓縮成單通道表示,然后提取這個表示的高頻成分。接著,UHFA將原始全局特征和高頻成分相加,通過3×3卷積生成空間注意力圖。這個注意力圖會突出那些包含重要邊界結構和模糊類別區(qū)域的位置。

最關鍵的是,UHFA使用低分辨率預測的不確定性來調(diào)制這個注意力圖。通過將注意力圖與不確定性的指數(shù)函數(shù)相乘,UHFA確保在低分辨率預測置信度高的區(qū)域,高分辨率特征得到更多關注;而在不確定性高的區(qū)域,高分辨率特征的影響被適當抑制,防止過擬合到可能不可靠的細節(jié)。

六、消融研究:每個組件都有其價值

為了驗證設計的合理性,研究團隊進行了詳細的消融研究。這就像拆解一臺精密機器,逐個移除不同部件來測試每個部件的重要性。

首先,當研究人員移除CALA模塊時,模型性能從76.60%下降到76.04%,降幅為0.56%。當移除UHFA模塊時,性能下降到75.86%,降幅為0.74%。這表明兩個模塊都對最終性能有貢獻,且UHFA的貢獻稍大一些。這個結果符合直覺,因為UHFA直接處理高分辨率特征,對最終的精細分割結果影響更大。

更有趣的發(fā)現(xiàn)是關于不確定性估計的重要性。當研究人員從CALA中移除高分辨率不確定性時,性能大幅下降到75.17%,這是所有單一組件移除中影響最大的。這說明高分辨率不確定性在置信度引導的特征精煉中起著關鍵作用。相比之下,移除低分辨率不確定性的影響相對較?。ㄐ阅転?6.00%),這表明全局語義先驗的穩(wěn)定性較好。

關于邊界信息的作用,實驗結果同樣令人印象深刻。當從兩個模塊中都移除高頻成分時,性能下降到75.58%。單獨從CALA中移除高頻成分的影響(75.20%)比從UHFA中移除的影響(75.65%)更大。這個看似矛盾的結果實際上很有道理:CALA中的邊界信息確保了類別先驗與空間細節(jié)的正確對齊,如果沒有這種對齊,模型會依賴錯位的邊界線索,導致分割錯誤增加。

為了進一步驗證高頻信息對小目標檢測的作用,研究團隊特別分析了幾個具有挑戰(zhàn)性的小目標類別的性能。結果顯示,移除高頻信息后,"電線桿"的IoU從61.98%下降到60.84%,"交通燈"從64.53%下降到63.14%,"騎行者"從58.30%下降到56.25%。這些一致的下降證明了UHFA的高頻精煉確實提高了邊緣敏感性,保持了精細結構細節(jié)。

七、實際應用:從實驗室到真實世界

AFRDA的價值不僅體現(xiàn)在學術指標上,更重要的是它在實際應用中的表現(xiàn)。為了驗證這一點,研究團隊將訓練好的AFRDA模型部署到真實的機器人系統(tǒng)上,在森林環(huán)境中進行導航測試。

這次實際測試使用了一臺Husky機器人,配備了640×480分辨率的攝像頭和RTX 2060 GPU。在這種相對有限的計算資源下,AFRDA的分割處理時間為0.72秒,整個導航管道的處理時間為0.77秒。機器人以0.1米/秒的速度在10米長的路徑上行進,成功避開了不可通行的區(qū)域并到達了目標位置。

這次測試的意義遠超表面的成功導航。森林環(huán)境對計算機視覺系統(tǒng)來說極具挑戰(zhàn)性:光照條件變化劇烈,植被類型多樣,地形起伏不定,而且缺乏城市環(huán)境中常見的規(guī)則幾何結構。在這樣的環(huán)境中,準確的語義分割直接關系到機器人的安全和任務成功率。

更重要的是,這次測試證明了AFRDA從合成數(shù)據(jù)到真實數(shù)據(jù)的適應能力。機器人使用的模型是在RUGD到MESH的設置下訓練的,但它能夠處理訓練數(shù)據(jù)中未曾見過的新場景和光照條件。這種泛化能力正是域適應技術的核心價值所在。

八、技術細節(jié):高斯濾波的巧妙運用

AFRDA中一個值得特別關注的技術細節(jié)是高斯濾波器的使用。這個選擇看似簡單,但實際上體現(xiàn)了研究團隊的深思熟慮。

高斯濾波器的數(shù)學表達式看起來很復雜,但其工作原理很直觀。想象你在看一張照片,然后戴上一副輕微近視的眼鏡——照片中的尖銳邊緣會變得模糊,但整體輪廓仍然清晰可見。高斯濾波器就是這樣工作的:它保留了圖像的主要結構,同時平滑掉了細節(jié)。

當研究團隊用原始圖像減去高斯濾波后的圖像時,得到的殘差就包含了所有被"模糊掉"的細節(jié)——主要是邊緣、紋理和精細結構。這種提取高頻成分的方法比傳統(tǒng)的邊緣檢測算子(如Sobel算子)更適合語義分割任務。

原因在于,傳統(tǒng)邊緣檢測器產(chǎn)生的是二值化的、不可微分的輸出,這不利于端到端的神經(jīng)網(wǎng)絡訓練。而高斯濾波器產(chǎn)生的是平滑、可微分的結果,可以無縫集成到深度學習框架中。此外,高斯濾波器提取的邊界信息保持了語義連續(xù)性,這對于處理重疊類別邊界特別重要。

高斯濾波器的標準差參數(shù)γ控制著濾波的強度。較小的γ值會保留更多細節(jié),較大的γ值會產(chǎn)生更平滑的結果。AFRDA通過實驗確定了最優(yōu)的γ值,平衡了邊界保持和噪聲抑制的需求。

九、與現(xiàn)有方法的對比:站在巨人肩膀上的創(chuàng)新

AFRDA的成功并非憑空而來,而是在現(xiàn)有優(yōu)秀工作基礎上的創(chuàng)新發(fā)展。為了更好地理解AFRDA的貢獻,我們需要了解它與現(xiàn)有方法的關系。

在域適應的發(fā)展歷程中,早期方法主要基于對抗學習。這類方法的思路就像訓練一個"辨別者",讓它無法區(qū)分源域和目標域的特征,從而實現(xiàn)域?qū)R。然而,這種方法容易忽略類別級別的對齊,導致負遷移問題。

后來,自訓練方法逐漸成為主流。這類方法采用教師-學生框架,讓教師模型為目標域生成偽標簽,然后用這些偽標簽訓練學生模型。DAFormer是這個方向的重要突破,它引入了Transformer架構,顯著提升了性能。

HRDA在DAFormer基礎上進一步發(fā)展,提出了多分辨率框架。這個方法的核心思想是同時使用大尺寸低分辨率裁剪(用于捕獲長程依賴)和小尺寸高分辨率裁剪(用于精細分割)。HRDA現(xiàn)在已經(jīng)成為大多數(shù)新方法的基礎框架。

MIC在HRDA基礎上引入了掩碼圖像一致性,通過掩碼部分圖像內(nèi)容來提高模型的魯棒性。這種方法迫使模型學習利用上下文信息來推斷被掩碼區(qū)域的內(nèi)容,從而提高了對目標域的適應能力。

AFRDA在這些優(yōu)秀工作的基礎上,專注于解決一個被忽視但重要的問題:如何有效融合不同分辨率的信息。雖然現(xiàn)有方法都使用了多分辨率特征,但它們主要通過簡單的特征融合來結合這些信息,沒有充分利用低分辨率預測中的語義先驗來指導高分辨率特征的精煉。

AFRDA的創(chuàng)新在于將語義預測(而非特征)直接用于特征精煉過程。這種設計使得高分辨率特征能夠獲得明確的類別級指導,而不僅僅是抽象的特征表示。同時,不確定性和高頻信息的引入進一步增強了這種精煉過程的有效性。

十、計算效率:輕量級設計的智慧

在現(xiàn)代深度學習研究中,模型的計算效率往往和性能一樣重要。AFRDA在設計時特別注重這個平衡,實現(xiàn)了性能提升和計算開銷的良好平衡。

從計算復雜度分析來看,AFR模塊的主要開銷來自兩個方面:注意力圖的計算和高頻成分的提取。注意力圖計算主要涉及1×1卷積和3×3卷積,這些操作的計算量相對較小。高頻成分提取使用高斯濾波,這是一個高效的線性操作。

更重要的是,AFR模塊的大部分計算都是并行友好的。現(xiàn)代GPU架構特別適合處理這類數(shù)據(jù)并行操作,因此AFR的實際運行時間增長比理論分析的更小。

實驗數(shù)據(jù)顯示了AFR的輕量級特性。在RTX 4090上的測試中,HRDA+AFR的訓練吞吐量從0.92 it/s降至0.85 it/s,下降幅度僅為7.6%。推理時的影響更小,從2.02 img/s降至1.88 img/s。GPU內(nèi)存使用方面,AFR幾乎沒有增加額外開銷,某些情況下甚至略有減少(如MIC的情況)。

這種高效性的一個重要原因是AFR的結構化注意力設計。通過將復雜的多尺度融合問題分解為兩個相對簡單的注意力機制,AFR避免了復雜的特征變換和大量的參數(shù)。同時,高斯濾波等操作的線性性質(zhì)確保了良好的計算效率。

對于實際部署來說,這種輕量級設計具有重要意義。在資源受限的邊緣設備上(如機器人的嵌入式系統(tǒng)),每一點計算效率的提升都可能決定系統(tǒng)的可用性。AFRDA證明了通過巧妙的算法設計,可以在不顯著增加計算負擔的情況下獲得性能提升。

十一、錯誤分析:理解限制與改進方向

沒有任何方法是完美的,AFRDA也有其局限性。通過分析模型的錯誤案例,我們可以更好地理解其工作機制和改進方向。

從定性結果分析來看,AFRDA在處理某些特定場景時仍然會出現(xiàn)錯誤。比如,在光照條件極端變化的情況下(如強陰影區(qū)域),模型有時會錯誤分類某些區(qū)域。這主要是因為合成數(shù)據(jù)和真實數(shù)據(jù)在光照模擬方面的差異,即使是AFRDA的域適應能力也難以完全彌補這種差異。

另一個挑戰(zhàn)來自于稀有類別的識別。雖然AFRDA在大多數(shù)小目標類別上表現(xiàn)出色,但對于訓練數(shù)據(jù)中極少出現(xiàn)的類別,性能提升仍然有限。這反映了一個根本問題:域適應的有效性很大程度上依賴于源域和目標域的共同特征,如果某個類別在源域中本身就很稀少,那么域適應技術能起到的作用就有限。

從技術角度來看,AFRDA的不確定性估計基于softmax概率,這種方法雖然簡單有效,但可能不是最優(yōu)的。更先進的不確定性估計方法(如基于深度集成或貝葉斯神經(jīng)網(wǎng)絡的方法)可能會帶來進一步的性能提升,但同時也會增加計算復雜度。

高頻成分提取雖然有效,但對噪聲敏感。在某些情況下,圖像中的噪聲可能被誤認為是重要的邊界信息,導致注意力機制的錯誤引導。這個問題在低質(zhì)量圖像或傳感器噪聲較大的情況下尤為明顯。

十二、未來展望:更廣闊的應用前景

AFRDA的成功為多個研究方向打開了新的可能性。在技術發(fā)展方面,AFR模塊的即插即用特性為其在其他視覺任務中的應用奠定了基礎。

在醫(yī)學圖像分析領域,域適應技術面臨著類似的挑戰(zhàn):模型需要從一種成像設備或成像協(xié)議適應到另一種。AFRDA的多分辨率融合思想可能對醫(yī)學圖像的精細結構分析有重要價值,特別是在需要同時考慮全局解剖結構和局部病理細節(jié)的任務中。

在自動駕駛領域,車輛需要在不同的天氣條件、光照條件和地理環(huán)境中保持穩(wěn)定的感知能力。AFRDA展示的跨環(huán)境適應能力(從城市到森林)為開發(fā)更魯棒的自動駕駛系統(tǒng)提供了新的思路。

在工業(yè)檢測領域,產(chǎn)品質(zhì)量檢測系統(tǒng)經(jīng)常面臨從實驗室環(huán)境到生產(chǎn)環(huán)境的適應問題。AFRDA的邊界增強能力對于檢測產(chǎn)品缺陷和表面質(zhì)量問題可能特別有用。

從科學意義來看,AFRDA提出的"語義引導特征精煉"思想可能會影響更廣泛的計算機視覺研究。傳統(tǒng)上,深度學習中的特征精煉主要依賴于數(shù)據(jù)驅(qū)動的學習,而AFRDA展示了如何利用顯式的語義信息來指導這個過程。這種思想可能會在其他需要多尺度信息融合的任務中得到應用。

在機器人學領域,AFRDA的成功部署證明了學術研究到實際應用轉(zhuǎn)化的可能性。隨著計算硬件的不斷發(fā)展和算法的進一步優(yōu)化,我們可以期待看到更多類似的技術在真實機器人系統(tǒng)中得到應用。

說到底,AFRDA不僅僅是一個技術創(chuàng)新,更是對如何讓人工智能系統(tǒng)更好地理解和適應真實世界這一根本問題的探索。通過巧妙地結合全局理解和局部細節(jié),考慮預測的不確定性,AFRDA為構建更智能、更可靠的視覺系統(tǒng)提供了新的思路。雖然當前的方法還有改進空間,但它已經(jīng)為未來的研究指明了一個富有前景的方向。對于那些希望讓機器人在復雜環(huán)境中自主導航,或者希望構建能夠跨域工作的視覺系統(tǒng)的研究者來說,AFRDA提供了一個值得深入研究和擴展的技術基礎。

Q&A

Q1:AFRDA能解決什么實際問題? A:AFRDA主要解決機器人視覺系統(tǒng)從模擬環(huán)境適應到真實環(huán)境的問題。比如讓在游戲場景中訓練的模型能夠準確理解真實街道,或讓在城市環(huán)境學習的系統(tǒng)適應森林導航,這對自動駕駛、機器人導航等應用很重要。

Q2:AFR模塊會不會讓計算變得很慢? A:不會顯著影響速度。實驗顯示AFR模塊只讓訓練速度下降7.6%左右,推理速度影響更小,GPU內(nèi)存使用基本不變。這是因為AFR采用了輕量級設計,主要使用高效的卷積和濾波操作。

Q3:AFRDA在小物體識別上為什么效果更好? A:AFRDA通過提取高頻信息來增強邊界和細節(jié)識別能力,就像給圖像加了銳化濾鏡。同時它的注意力機制能更好地關注小物體區(qū)域,所以對電線桿、交通標志這些小而重要的物體識別效果顯著提升。

分享至
0贊

好文章,需要你的鼓勵

推薦文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-