現代農業(yè)高度依賴于「蜜蜂」這一物種。
事實上,整個生態(tài)系統(tǒng),包括我們吃下的食物,以及我們呼吸的空氣,都與這種小小的“傳粉載體”密切關聯(lián)。但根據世界蜜蜂項目(The World Bee Project)執(zhí)行總裁Sabiha Rumani Malik的說法,目前這種傳輸媒介(蜜蜂)的數量正在減少,而其與甲骨文公司之間的有趣合作,則讓該項目掌握了人工智能、物聯(lián)網與大數據的力量,有望徹底扭轉這一不利趨勢。
根據政府生物多樣性與生態(tài)系統(tǒng)服務科學政策平臺(IPBES)發(fā)布的報告,蜜蜂這種傳粉媒介正處于危險之中。
蜜蜂瀕臨滅絕的原因很多,包括棲息地遭到破壞、城市化進程加劇、農藥過量使用、污染、開花植物分散化、掠食性動物與寄生蟲威脅、以及氣候變化等等。
但直到“世界蜜蜂項目”建立之前,還沒有哪項全球性計劃著手從蜜蜂種群乃至全球化視角嘗試研究并解決這個難題。
正是由于蜜蜂及其他授粉媒介(例如蝴蝶)的存在,才讓地球上的植物演化為通過種子進行繁殖的形態(tài)。根據美國農業(yè)部(USDA)的數據,全球35%的糧食作物與四分之三的開花植物,都依賴蜜蜂及其他授粉媒介,才能繁衍存續(xù)。
實際上,為了確保加利福尼亞州的杏仁類作物能夠得到及時授粉,美國每年需要將大部分蜂箱運往加州地帶,以保障授粉成功率。另外,蜜蜂一直在幫助全球90%的主要農作物進行授粉,包括各類果樹、咖啡、香草以及棉花等等。而植物的正常生長,也通過光合作用為整個地球補充至關重要的氧氣含量。
如果授粉媒介在數量或者生存狀態(tài)上不足以履行這項重要職責,那么全球農作物的生產、糧食安全、生物多樣性以及空氣質量都將受到嚴重沖擊。蜜蜂則是世界上最重要的授粉媒介之一。全球高達40%的人群依賴于蜜蜂獲取營養(yǎng)供應。目前,仍有約20億人體內缺乏必要的微量元素。
Malik表示,“我們的生活,與蜜蜂種群有著緊密的內在聯(lián)系。”
“世界蜜蜂項目”是第一家發(fā)起并致力于監(jiān)控全球蜜蜂種群變化的私人協(xié)調組織。自2014年建立以來,該組織召集眾多科學家,共同研究全球蜜蜂數量下降問題,并向農民、政府、養(yǎng)蜂人以及其他組織提供與此相關的咨詢見解。
2018年,該項目決定采購甲骨文云技術服務,希望借此破解全球蜜蜂數量下降的秘密。與之對應,“世界蜜蜂項目”旗下的「Hive Network」也由此誕生。
我們如何利用科技拯救蜜蜂種群?最直觀的方式當然是利用高新科技協(xié)助養(yǎng)蜂,其中的基本思路與其他創(chuàng)新項目相同。
首先,通過麥克風與攝像頭等物聯(lián)網傳感器觀察侵入性掠食者的動向,并從蜜蜂及蜂巢當中收集相關數據。近年來如火如荼的新興方案與創(chuàng)新成果——包括無線技術、機器人技術以及計算機視覺等——能夠為這類問題提供新的洞見與解決方案。
反映蜂巢健康狀況的核心指標之一,就是蜂巢產生的聲音。因此,數據收集工作的關鍵,就是“聆聽”蜂箱中的動靜,以確定聚落的健康狀況、活動強度與行為傾向,同時結合溫度、濕度、蜂房所在地天氣條件以及蜂巢重量等其他重要指標。這些音頻與視頻傳感器,還能夠及時檢測到「黃蜂」這種嚴重威脅蜜蜂生存安全的物種。
接下來,相關數據將被輸入至甲骨文云,由甲骨文AI算法對內容進行分析。算法能夠查找其中的模式,并嘗試預測蜂巢的整體情況,例如孵化活動是否能夠正常進行。
再將這些結論分享給養(yǎng)蜂人及環(huán)境保護主義者,他們就能及時介入以保護蜂箱安全。另外,整套系統(tǒng)接入全球網絡,因此相關算法能夠快速了解世界范圍內不同地區(qū)間的蜂群差異信息。學生、研究人員甚至是對此抱有興趣的普通民眾,都可以隨時進行數據交互、通過Hive Network的開放API使用數據,并通過聊天機器人進行討論。
如上文所述,音頻與視頻傳感器能夠及時檢測到黃蜂這種嚴重威脅蜜蜂生存安全的物種。黃蜂振翅時發(fā)出的聲音與普通蜜蜂不同,AI能夠自動識別出黃蜂的存在,并警告養(yǎng)蜂人及時應對相關威脅。
在新興技術的支持下,“世界蜜蜂項目”得以快速共享實時信息并收集資源,幫助我們拯救地球上的蜜蜂種群。Malik也感慨道,“我們與甲骨文云之間的合作關系,堪稱自然與技術之間的一次非凡結合。”事實證明,科技成果正幫助“世界蜜蜂項目”的「Hive Network」在全球范圍內持續(xù)擴大影響力,引導無數參與者更快、更有效地拯救蜜蜂這一珍貴物種。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現AI根據復雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結合大語言模型的敘事推理能力與音頻生成技術,通過交錯式推理生成、解耦橋接機制和漸進式訓練,能夠將復雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術,通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術僅需添加兩個線性層就能大幅提升運動質量,在多項測試中超越包括Sora在內的商業(yè)模型,為AI視頻生成的實用化應用奠定了重要基礎。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質量樣本的訓練數據集和MM-AlignBench評測基準,通過創(chuàng)新的數據生成和質量管控方法,讓AI在保持技術能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預測模型,能夠在不到一分鐘內完成10天全球天氣預報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經網絡技術,通過學習40年歷史數據掌握天氣變化規(guī)律,在極端天氣預測方面表現卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領域帶來了效率和精度的雙重突破。