av天堂久久天堂色综合,最近中文字幕mv免费高清在线,在线a级毛片免费视频,av动漫,中文字幕精品亚洲无线码一区

微信掃一掃,關(guān)注公眾號(hào)

  • 科技行者

  • 算力行者

見(jiàn)證連接與計(jì)算的「力量」

首頁(yè) EarthMind:基于大型多模態(tài)模型的多尺度多傳感器地球觀測(cè)系統(tǒng)

EarthMind:基于大型多模態(tài)模型的多尺度多傳感器地球觀測(cè)系統(tǒng)

2025-06-06 09:16
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-06-06 09:16 ? 科技行者

近日,一項(xiàng)由多所國(guó)際知名學(xué)府聯(lián)合開(kāi)展的研究成果引起了地球觀測(cè)領(lǐng)域的廣泛關(guān)注。這項(xiàng)名為"EarthMind: Towards Multi-Granular and Multi-Sensor Earth Observation with Large Multimodal Models"的研究由意大利特倫托大學(xué)的Yan Shu、Bin Ren、Nicu Sebe和Paolo Rota,德國(guó)柏林工業(yè)大學(xué)的Begüm Demir,德國(guó)慕尼黑工業(yè)大學(xué)的Zhitong Xiong,以及保加利亞索非亞大學(xué)"St. Kliment Ohridski"的INSAIT研究所的Danda Pani Paudel和Luc Van Gool共同完成。該研究已于2025年6月2日在arXiv上發(fā)表(arXiv:2506.01667v1),目前正在接受同行評(píng)審。研究代碼已開(kāi)源,感興趣的讀者可以通過(guò)https://github.com/shuyansy/EarthMind獲取更多信息。

一、為什么我們需要更智能的"地球觀察員"?

想象一下,如果你需要實(shí)時(shí)監(jiān)測(cè)一片廣袤的森林以防火災(zāi),或者評(píng)估洪水后的受災(zāi)情況,你會(huì)怎么做?傳統(tǒng)方法可能需要派出大量人員實(shí)地勘察,耗時(shí)費(fèi)力且效率低下。而衛(wèi)星遙感技術(shù)的出現(xiàn),讓我們能夠從太空中獲取地球表面的大量圖像數(shù)據(jù),猶如擁有了一雙永不疲倫的"天眼"。

但是,獲取數(shù)據(jù)只是第一步。如何理解并利用這些海量的地球觀測(cè)(Earth Observation, EO)數(shù)據(jù),才是真正的挑戰(zhàn)。特別是當(dāng)這些數(shù)據(jù)來(lái)自不同類型的傳感器,呈現(xiàn)不同的尺度和特征時(shí),傳統(tǒng)的計(jì)算機(jī)視覺(jué)模型往往難以應(yīng)對(duì)。

近年來(lái),大型多模態(tài)模型(Large Multimodal Models, LMMs)在圖像理解和自然語(yǔ)言處理方面取得了驚人的進(jìn)步。這些模型能夠同時(shí)處理圖像和文本,完成圖像描述、視覺(jué)問(wèn)答和目標(biāo)定位等任務(wù)。然而,當(dāng)面對(duì)地球觀測(cè)數(shù)據(jù)時(shí),這些模型卻表現(xiàn)不佳。這主要是因?yàn)榈厍蛴^測(cè)數(shù)據(jù)與普通圖像存在顯著差異,包括視角(從太空俯瞰)、尺度(覆蓋范圍廣泛)以及數(shù)據(jù)類型(包括光學(xué)、雷達(dá)、多光譜等)的不同。

正是針對(duì)這一挑戰(zhàn),研究團(tuán)隊(duì)開(kāi)發(fā)了EarthMind,這是一個(gè)專門為地球觀測(cè)數(shù)據(jù)設(shè)計(jì)的視覺(jué)-語(yǔ)言框架。與現(xiàn)有方法不同,EarthMind能夠同時(shí)處理多尺度(從像素級(jí)到區(qū)域級(jí)再到圖像級(jí))和多傳感器(如光學(xué)RGB和合成孔徑雷達(dá)SAR)的地球觀測(cè)數(shù)據(jù)。就像一個(gè)經(jīng)驗(yàn)豐富的地理分析師,EarthMind不僅能看懂普通的衛(wèi)星照片,還能理解雷達(dá)圖像,并將不同來(lái)源的信息整合起來(lái),提供更全面、更準(zhǔn)確的分析結(jié)果。

二、EarthMind:一個(gè)會(huì)"看"又會(huì)"思考"的地球觀測(cè)系統(tǒng)

那么,EarthMind究竟是如何工作的呢?想象一下,EarthMind就像一個(gè)擁有超能力的地球觀察員,它不僅有一雙能看穿云層的眼睛,還有一個(gè)能夠同時(shí)處理多種信息的大腦。

EarthMind的核心設(shè)計(jì)包含兩個(gè)關(guān)鍵組件:空間注意力提示(Spatial Attention Prompting, SAP)和跨模態(tài)融合(Cross-modal Fusion)。

### 空間注意力提示:引導(dǎo)模型關(guān)注重點(diǎn)區(qū)域

首先,讓我們了解空間注意力提示機(jī)制。想象你在尋找一幅衛(wèi)星圖像中的某個(gè)特定建筑物。傳統(tǒng)模型可能會(huì)"走神",注意力分散到其他不相關(guān)的區(qū)域。而EarthMind的空間注意力提示機(jī)制則像一個(gè)專注的導(dǎo)游,能夠準(zhǔn)確地將注意力引導(dǎo)到我們感興趣的目標(biāo)區(qū)域。

具體來(lái)說(shuō),當(dāng)我們要求EarthMind識(shí)別圖像中的某個(gè)對(duì)象(比如"請(qǐng)找出圖像中的道路")時(shí),模型會(huì)在處理過(guò)程中生成一個(gè)特殊的"[SEG]"(分割)標(biāo)記。這個(gè)標(biāo)記就像模型內(nèi)部的一個(gè)探針,負(fù)責(zé)尋找目標(biāo)對(duì)象。然而,在復(fù)雜的地球觀測(cè)圖像中,由于目標(biāo)邊界模糊、尺度不均衡等問(wèn)題,這個(gè)探針可能會(huì)"迷路",注意力偏離目標(biāo)區(qū)域。

為了解決這個(gè)問(wèn)題,研究團(tuán)隊(duì)引入了一種基于KL散度(一種衡量?jī)蓚€(gè)概率分布差異的方法)的監(jiān)督信號(hào)。簡(jiǎn)單來(lái)說(shuō),他們利用已知的目標(biāo)掩碼(如道路的確切位置)來(lái)指導(dǎo)模型的注意力分配。就像教導(dǎo)一個(gè)孩子識(shí)別物體一樣,通過(guò)反復(fù)強(qiáng)調(diào)"看這里,這是道路",模型逐漸學(xué)會(huì)將注意力集中在正確的區(qū)域。

這種機(jī)制顯著提升了EarthMind在像素級(jí)任務(wù)(如對(duì)象分割)中的表現(xiàn),使模型能夠精確地定位和識(shí)別地球觀測(cè)圖像中的復(fù)雜目標(biāo)。

### 跨模態(tài)融合:整合不同傳感器的信息

第二個(gè)關(guān)鍵組件是跨模態(tài)融合機(jī)制。想象你同時(shí)擁有一副普通眼鏡和一副夜視眼鏡。在白天,普通眼鏡(類比光學(xué)RGB圖像)可以清晰地顯示顏色和紋理;而在夜晚或濃霧中,夜視眼鏡(類比SAR雷達(dá)圖像)則能穿透障礙看到物體的輪廓。如果你能同時(shí)利用這兩種"視覺(jué)",無(wú)疑會(huì)獲得更全面的信息。

EarthMind正是通過(guò)跨模態(tài)融合機(jī)制實(shí)現(xiàn)了這一點(diǎn)。這個(gè)機(jī)制包含兩個(gè)關(guān)鍵步驟:模態(tài)對(duì)齊(Modality Alignment)和模態(tài)互注意力(Modality Mutual Attention)。

模態(tài)對(duì)齊使用對(duì)比學(xué)習(xí)策略,將非光學(xué)特征(如SAR)與光學(xué)(RGB)特征空間對(duì)齊。這就像教會(huì)一個(gè)只懂英語(yǔ)的人理解法語(yǔ)——通過(guò)建立兩種語(yǔ)言之間的對(duì)應(yīng)關(guān)系,使他們能夠?qū)⒎ㄕZ(yǔ)單詞映射到已知的英語(yǔ)概念上。

模態(tài)互注意力則進(jìn)一步評(píng)估每個(gè)模態(tài)中信息的重要性,動(dòng)態(tài)地突出最有價(jià)值的特征。例如,在多云天氣下,SAR圖像中的道路輪廓可能比模糊的光學(xué)圖像更可靠;而在晴天,光學(xué)圖像中的植被顏色信息可能更加重要。通過(guò)這種機(jī)制,EarthMind能夠智能地平衡和整合不同模態(tài)的信息,提供更準(zhǔn)確、更全面的分析結(jié)果。

### EarthMind的整體架構(gòu)

將這些組件整合起來(lái),EarthMind的工作流程如下:

首先,不同的編碼器處理輸入圖像,生成多層次的表示:視覺(jué)編碼器負(fù)責(zé)全局語(yǔ)義感知,區(qū)域編碼器負(fù)責(zé)對(duì)象級(jí)理解,基礎(chǔ)編碼器負(fù)責(zé)細(xì)粒度的空間分割。這些表示通過(guò)視覺(jué)-語(yǔ)言投影器轉(zhuǎn)換為一系列視覺(jué)標(biāo)記。

同時(shí),系統(tǒng)還生成一組可學(xué)習(xí)的分割標(biāo)記,用于捕捉空間布局的特定方面。視覺(jué)標(biāo)記、分割標(biāo)記和文本查詢一起輸入到大型語(yǔ)言模型中,進(jìn)行聯(lián)合跨模態(tài)推理。

對(duì)于多傳感器輸入,EarthMind采用了類似視頻處理的策略:將非光學(xué)圖像(如SAR或多光譜數(shù)據(jù))轉(zhuǎn)換為"偽RGB"幀,構(gòu)成時(shí)序多幀序列。這些序列通過(guò)共享編碼器處理,使模型能夠利用跨幀依賴關(guān)系和光譜互補(bǔ)性。

最后,借助空間注意力提示和跨模態(tài)融合機(jī)制,EarthMind能夠在多尺度和多傳感器條件下提供準(zhǔn)確的理解和分析。

三、EarthMind-Bench:一個(gè)全面的多傳感器評(píng)估基準(zhǔn)

為了評(píng)估EarthMind的性能,研究團(tuán)隊(duì)還創(chuàng)建了一個(gè)名為EarthMind-Bench的新基準(zhǔn)數(shù)據(jù)集。這個(gè)基準(zhǔn)數(shù)據(jù)集就像一套全面的考試題,專門設(shè)計(jì)用來(lái)測(cè)試模型在地球觀測(cè)領(lǐng)域的多方面能力。

EarthMind-Bench包含超過(guò)2,000對(duì)人工標(biāo)注的多傳感器圖像-問(wèn)題對(duì),涵蓋了從基礎(chǔ)感知到高級(jí)推理的各種任務(wù)。與現(xiàn)有基準(zhǔn)不同,EarthMind-Bench具有三個(gè)獨(dú)特特點(diǎn):

首先,它支持多尺度任務(wù)評(píng)估,從粗粒度的圖像理解到細(xì)粒度的分割。就像一個(gè)地理專家不僅能說(shuō)出"這是一個(gè)城市",還能指出"這里是一條河流,它旁邊有三座橋",甚至精確地劃出"這是一片農(nóng)田的邊界"。

其次,它引入了多傳感器數(shù)據(jù),特別是配對(duì)的RGB-SAR圖像,使我們能夠評(píng)估模型融合不同模態(tài)信息的能力。這就像同時(shí)測(cè)試一個(gè)人在正常光線和暗光條件下的視覺(jué)能力。

第三,它涵蓋了多層次問(wèn)題,從低級(jí)感知(如"圖像中有幾艘船?")到高級(jí)推理(如"這個(gè)地區(qū)適合城市發(fā)展嗎?為什么?")。

具體來(lái)說(shuō),EarthMind-Bench包含以下10個(gè)任務(wù):

感知任務(wù)包括場(chǎng)景分類(判斷圖像屬于哪種類型的場(chǎng)景)、物體存在性檢測(cè)(判斷圖像中是否存在某種物體)、幻覺(jué)檢測(cè)(檢測(cè)模型是否錯(cuò)誤識(shí)別不存在的物體)、物體計(jì)數(shù)(計(jì)算圖像中特定類別物體的數(shù)量)、圖像描述(生成描述圖像內(nèi)容的文本)和引用表達(dá)式分割(根據(jù)自然語(yǔ)言描述在圖像中分割對(duì)應(yīng)區(qū)域)。

推理任務(wù)則包括空間關(guān)系推理(推斷給定物體之間的相對(duì)位置)、路線規(guī)劃(生成從起點(diǎn)到終點(diǎn)的可行路徑)、災(zāi)害預(yù)測(cè)(評(píng)估特定地區(qū)發(fā)生自然災(zāi)害的可能性)和城市發(fā)展評(píng)估(評(píng)估一個(gè)區(qū)域是否適合城市開(kāi)發(fā))。

所有任務(wù)都被格式化為多項(xiàng)選擇題或開(kāi)放式問(wèn)題。對(duì)于多項(xiàng)選擇題,評(píng)估指標(biāo)是平均準(zhǔn)確率;對(duì)于開(kāi)放式問(wèn)題,研究團(tuán)隊(duì)采用了基于GPT的評(píng)分機(jī)制來(lái)評(píng)估生成回答的質(zhì)量。

四、實(shí)驗(yàn)結(jié)果:EarthMind表現(xiàn)如何?

那么,EarthMind的表現(xiàn)如何呢?研究團(tuán)隊(duì)在三個(gè)方面進(jìn)行了全面評(píng)估:EarthMind-Bench多傳感器評(píng)估、公共基準(zhǔn)評(píng)估以及消融實(shí)驗(yàn)。

### EarthMind-Bench評(píng)估結(jié)果

在EarthMind-Bench上,研究團(tuán)隊(duì)比較了EarthMind與現(xiàn)有最先進(jìn)的地球觀測(cè)專用大型多模態(tài)模型(如GeoChat、LHRS-bot、Skysensegpt、GeoPixel等)以及通用專有模型(如GPT-4V和GPT-4o)的性能。

結(jié)果令人驚訝:盡管EarthMind只有4B參數(shù)(相對(duì)較?。?,但它在多項(xiàng)選擇題和開(kāi)放式問(wèn)題上的表現(xiàn)都超過(guò)了所有基線模型,包括規(guī)模更大的GPT-4o。具體來(lái)說(shuō),在RGB圖像上,EarthMind的多項(xiàng)選擇題平均準(zhǔn)確率達(dá)到69.0%,開(kāi)放式問(wèn)題平均得分為2.82(滿分5分);在SAR圖像上,這兩個(gè)指標(biāo)分別為67.5%和2.64;最令人印象深刻的是,在RGB-SAR融合設(shè)置下,EarthMind的性能進(jìn)一步提升至70.6%和3.02。

這一結(jié)果表明,與簡(jiǎn)單地將不同模態(tài)圖像作為多圖輸入(如GPT-4模型所采用的方式)相比,EarthMind的跨模態(tài)融合機(jī)制能夠更有效地捕捉模態(tài)互補(bǔ)性。特別是在精細(xì)任務(wù)(如路線規(guī)劃、物體計(jì)數(shù)和空間關(guān)系理解)上,EarthMind展現(xiàn)出顯著的優(yōu)勢(shì),因?yàn)檫@些任務(wù)往往需要同時(shí)利用光學(xué)圖像的紋理信息和SAR圖像的結(jié)構(gòu)線索。

### 公共基準(zhǔn)評(píng)估

除了EarthMind-Bench,研究團(tuán)隊(duì)還在多個(gè)主流地球觀測(cè)基準(zhǔn)上評(píng)估了EarthMind的性能。這些基準(zhǔn)涵蓋了圖像級(jí)、區(qū)域級(jí)和像素級(jí)任務(wù),以及多傳感器理解能力。

在圖像級(jí)任務(wù)(如AID和UC-Merced上的場(chǎng)景分類、RSVQA-HRBEN和VRSBench-VQA上的視覺(jué)問(wèn)答)上,EarthMind顯著優(yōu)于之前的模型,包括GPT-4o。例如,在AID數(shù)據(jù)集上,EarthMind的準(zhǔn)確率達(dá)到97.2%,而GPT-4o為74.7%。

在區(qū)域級(jí)任務(wù)中,EarthMind在DIOR-RSVG上的CIDEr得分達(dá)到428.2,在VRSBench視覺(jué)定位任務(wù)上的準(zhǔn)確率達(dá)到55.6%,超過(guò)了基于視覺(jué)提示的方法。

最令人驚訝的是,在像素級(jí)基準(zhǔn)上,EarthMind在RRSIS-D和RefSegRS上都取得了最佳結(jié)果,甚至超過(guò)了專門的分割模型和地球觀測(cè)專用的大型多模態(tài)模型。例如,在RRSIS-D上,EarthMind的mIoU(平均交并比,一種評(píng)估分割準(zhǔn)確性的指標(biāo))達(dá)到82.2%,而之前最好的模型GeoPixel為67.3%。

此外,EarthMind在多傳感器理解方面也表現(xiàn)出色。在BigEarthNet多光譜數(shù)據(jù)集上,EarthMind的準(zhǔn)確率達(dá)到70.4%,接近專門針對(duì)多光譜數(shù)據(jù)訓(xùn)練的EarthDial模型(69.9%)。在SAR船只檢測(cè)任務(wù)上,EarthMind也優(yōu)于之前的方法,特別是在檢測(cè)大型和中型船只方面。

### 消融實(shí)驗(yàn)

為了深入了解EarthMind各組件的貢獻(xiàn),研究團(tuán)隊(duì)進(jìn)行了一系列消融實(shí)驗(yàn)。

首先,對(duì)于空間注意力提示(SAP)機(jī)制,實(shí)驗(yàn)表明它顯著提升了分割性能。例如,在RRSIS-D數(shù)據(jù)集上,加入SAP使mIoU從67.5%提高到72.0%??梢暬Y(jié)果更直觀地展示了SAP的效果:沒(méi)有SAP時(shí),模型的注意力往往偏離目標(biāo)區(qū)域;而加入SAP后,注意力能夠準(zhǔn)確地重新分配到與查詢對(duì)象對(duì)應(yīng)的區(qū)域。

其次,對(duì)于跨模態(tài)融合機(jī)制,實(shí)驗(yàn)比較了三種配置:不使用模態(tài)對(duì)齊、簡(jiǎn)單連接不同模態(tài)的視覺(jué)標(biāo)記、使用基于余弦相似度的簡(jiǎn)單注意力機(jī)制。結(jié)果表明,完整的EarthMind模型(包括模態(tài)對(duì)齊和模態(tài)互注意力)在多項(xiàng)選擇準(zhǔn)確率和引用表達(dá)式分割上都顯著優(yōu)于這些基線。

此外,研究團(tuán)隊(duì)還進(jìn)行了"標(biāo)記丟棄"研究,比較了不同標(biāo)記保留策略的效果。結(jié)果表明,即使在相同的保留率下,EarthMind的模態(tài)互注意力機(jī)制也能保留更多信息內(nèi)容,導(dǎo)致更好的性能。這證明了該方法確實(shí)能夠保留不同模態(tài)之間最互補(bǔ)的信息。

五、技術(shù)細(xì)節(jié):EarthMind是如何實(shí)現(xiàn)的?

讓我們深入了解EarthMind的一些技術(shù)細(xì)節(jié)。EarthMind基于Qwen-2.5-3B模型構(gòu)建,采用了三階段的課程學(xué)習(xí)策略進(jìn)行微調(diào)。

在第一階段,研究團(tuán)隊(duì)使用170萬(wàn)通用圖像-文本數(shù)據(jù)來(lái)增強(qiáng)模型的指令遵循能力。這些數(shù)據(jù)涵蓋了圖像級(jí)描述、視覺(jué)問(wèn)答、區(qū)域級(jí)對(duì)象理解和文本驅(qū)動(dòng)分割。

在第二階段,研究團(tuán)隊(duì)引入了100萬(wàn)地球觀測(cè)特定的多模態(tài)數(shù)據(jù),以使EarthMind適應(yīng)遙感領(lǐng)域。

在第三階段,他們使用自己合成的多傳感器對(duì)話語(yǔ)料,并有選擇地保留前期階段的示例以減輕災(zāi)難性遺忘。

EarthMind的訓(xùn)練使用4e-5的學(xué)習(xí)率和2的批量大小,只訓(xùn)練視覺(jué)-語(yǔ)言投影器、通過(guò)LoRA技術(shù)微調(diào)大型語(yǔ)言模型,以及掩碼解碼器。所有實(shí)驗(yàn)都在8臺(tái)NVIDIA A100-80G GPU上進(jìn)行。

訓(xùn)練數(shù)據(jù)集包括自然圖像數(shù)據(jù)集(如LLaVA-665K、引用表達(dá)式數(shù)據(jù)和定位對(duì)話生成樣本)和地球觀測(cè)特定數(shù)據(jù)(如來(lái)自EarthGPT的100萬(wàn)VQA數(shù)據(jù)、來(lái)自VRSBench的14.2萬(wàn)地球觀測(cè)對(duì)話、來(lái)自DIOR-RSVG的3.1萬(wàn)區(qū)域級(jí)描述等)。此外,研究團(tuán)隊(duì)還合成了2萬(wàn)RGB-SAR配對(duì)對(duì)話,進(jìn)一步增強(qiáng)了模型的多傳感器理解能力。

六、EarthMind的局限性與未來(lái)方向

盡管EarthMind取得了令人印象深刻的成果,但研究團(tuán)隊(duì)也坦誠(chéng)地指出了其局限性。

首先,訓(xùn)練EarthMind需要大量計(jì)算資源,這主要是因?yàn)樗褂昧硕鄠€(gè)視覺(jué)編碼器來(lái)實(shí)現(xiàn)多層次理解。一個(gè)有前途的方向是通過(guò)混合專家(Mixture-of-Experts)或知識(shí)蒸餾技術(shù)優(yōu)化架構(gòu),減少冗余。

其次,開(kāi)發(fā)一個(gè)能夠?qū)悩?gòu)傳感器輸入聯(lián)合嵌入到共享語(yǔ)義空間的模態(tài)對(duì)齊編碼器,可以進(jìn)一步提高效率。

此外,EarthMind-Bench目前僅包含配對(duì)的光學(xué)(RGB)和合成孔徑雷達(dá)(SAR)模態(tài)。未來(lái)的擴(kuò)展應(yīng)該納入更多的傳感模態(tài),如多光譜、高光譜和紅外圖像,以更全面地評(píng)估大型多模態(tài)模型在地球觀測(cè)領(lǐng)域的融合能力。

七、總結(jié):EarthMind的意義與影響

歸根結(jié)底,EarthMind代表了地球觀測(cè)領(lǐng)域的一個(gè)重要里程碑。它不僅提供了一個(gè)統(tǒng)一的框架來(lái)處理多尺度和多傳感器的地球觀測(cè)數(shù)據(jù),還創(chuàng)建了一個(gè)全面的基準(zhǔn)來(lái)評(píng)估這些能力。

對(duì)于普通人來(lái)說(shuō),EarthMind的出現(xiàn)意味著我們可以更好地理解和利用衛(wèi)星圖像。無(wú)論是環(huán)境監(jiān)測(cè)、城市規(guī)劃、農(nóng)業(yè)管理還是災(zāi)害應(yīng)對(duì),更準(zhǔn)確、更全面的地球觀測(cè)數(shù)據(jù)分析都能夠提供寶貴的決策支持。

例如,在災(zāi)害響應(yīng)中,EarthMind可以同時(shí)分析光學(xué)圖像和雷達(dá)圖像,即使在云層覆蓋或夜間條件下,也能準(zhǔn)確識(shí)別受災(zāi)區(qū)域,評(píng)估損失程度,并規(guī)劃救援路線。

在環(huán)境保護(hù)方面,EarthMind可以監(jiān)測(cè)森林砍伐、冰川融化、城市擴(kuò)張等現(xiàn)象,提供從全局到局部的多尺度分析,幫助我們更好地理解人類活動(dòng)對(duì)地球的影響。

總之,EarthMind的研究成果不僅推動(dòng)了人工智能技術(shù)在地球觀測(cè)領(lǐng)域的應(yīng)用,也為我們提供了一個(gè)更強(qiáng)大的工具來(lái)觀察、理解和保護(hù)我們共同的家園——地球。

如果你對(duì)這項(xiàng)研究感興趣,可以訪問(wèn)https://github.com/shuyansy/EarthMind獲取更多信息和代碼資源。

分享至
0贊

好文章,需要你的鼓勵(lì)

推薦文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-