上周,美國西北大學(xué)研究人員宣布,他們成功開發(fā)出一款新型人工智能(AI)放射學(xué)工具,能夠通過胸部X光片檢測出COVID-19感染跡象。
此項研究已經(jīng)發(fā)表在《放射學(xué)》雜志上,并指出該系統(tǒng)“對2214張測試圖像進行了分類,準確率為83%。”
▲ 圖為一位成年健康男性的胸部X光片數(shù)字化樣片,中央處的以及大小正常,且肺部輪廓清晰可辨
研究論文資深作者Aggelos Katsaggelos博士在報道中指出,“我們的目標并不是替代常規(guī)測試,X射線造影是一項常規(guī)、安全且廉價的診斷方法。”
另一位主要作者Ramsey Wehbe博士也解釋道,“常規(guī)的COVID-19測試往往需要幾小時甚至幾天時間才能得出結(jié)果,而AI技術(shù)并不足以確定對方是否已經(jīng)感染。但如果能夠使用這種算法標記患者,則至少可以在獲得測試結(jié)果之前加快分類速度。”
正如Katsaggelos所提到,這種通過初步篩查以判斷哪些患者需要隔離的方案本身,已經(jīng)足以給急診科醫(yī)師帶來巨大的效率提升。在本次疫情流行高峰期間,以口罩為代表的個人防護設(shè)備已經(jīng)在全球成為首批低價供應(yīng)的防疫物資。但根據(jù)觀察,仍有不少已經(jīng)感染新冠病毒的患者并沒有做好自我保護措施,因此可能加劇這種疾病的蔓延。實際上,不少醫(yī)護人員由于物資緊張而被迫重復(fù)使用防護設(shè)備進行病患護理。根據(jù)疾控中心發(fā)布的數(shù)據(jù),到目前為止,已經(jīng)有近238000名醫(yī)護專業(yè)人士接觸COVID-19病毒,并有841人因感染而不幸去世。
▲ 圖為患有潛在大葉性肺炎患者的胸部X光片
同時,這篇期刊文章還討論了對這項技術(shù)的深入考量:“此前的臨床研究表明,COVID-19肺炎在胸部造影學(xué)層面上顯示出一定特征,但仍有高達56%的有癥狀患者、特別是在其早期患病階段,很可能擁有看似正常的胸部X光片。因此,醫(yī)學(xué)造影不技術(shù)不適合用于「排除」疾病。此外,對COVID-19病患進行的成像實現(xiàn)發(fā)現(xiàn),大部分結(jié)果都具有非特異性表現(xiàn),即與其他病毒性肺炎存在特征重疊。因此,胸部成像不應(yīng)用作COVID-19的診斷工具,但仍可在早期識別潛在病患方面發(fā)揮積極作用,包括幫助對病患進行分類以及感染控制。”
這篇報道還警告稱,“當然,也有一部分COVID-19病患不會表現(xiàn)出任何癥狀,包括在胸部X光片中不存在任何異常。在病毒感染的早期階段,很多患者的肺部未出現(xiàn)任何異常。”在這類情況下,這一AI放射學(xué)工具可能發(fā)揮不了多大作用。
盡管如此,正如研究作者們所強調(diào),“我們認為該算法能夠自動標記可疑的胸部影像以實現(xiàn)對患者的隔離及進一步診斷,通過自動標記患者病情,醫(yī)療機構(gòu)可以有效預(yù)防病毒感染者不必要地擴大接觸范圍。”
事實上,如果進一步對這款篩選工具進行測試,并最終證明其有效、安全、可行并擁有一定程度的可擴展性,那么它完全有望切實幫助醫(yī)療工作者減輕抗疫負擔(dān)。
好文章,需要你的鼓勵
北航團隊推出Easy Dataset框架,通過直觀的圖形界面和角色驅(qū)動的生成方法,讓普通用戶能夠輕松將各種格式文檔轉(zhuǎn)換為高質(zhì)量的AI訓(xùn)練數(shù)據(jù)。該工具集成了智能文檔解析、混合分塊策略和個性化問答生成功能,在金融領(lǐng)域?qū)嶒炛酗@著提升了AI模型的專業(yè)表現(xiàn),同時保持通用能力。項目已開源并獲得超過9000顆GitHub星標。
盧森堡計算機事件響應(yīng)中心開發(fā)的VLAI系統(tǒng),基于RoBERTa模型,能夠通過閱讀漏洞描述自動判斷危險等級。該系統(tǒng)在60萬個真實漏洞數(shù)據(jù)上訓(xùn)練,準確率達82.8%,已集成到實際安全服務(wù)中。研究采用開源方式,為網(wǎng)絡(luò)安全專家提供快速漏洞風(fēng)險評估工具,有效解決了官方評分發(fā)布前的安全決策難題。
中國電信研究院等機構(gòu)聯(lián)合開發(fā)的xVerify系統(tǒng),專門解決復(fù)雜AI推理模型的評估難題。該系統(tǒng)能夠準確判斷包含多步推理過程的AI輸出,在準確率和效率方面均超越現(xiàn)有方法,為AI評估領(lǐng)域提供了重要突破。
昆侖公司Skywork AI團隊開發(fā)的Skywork R1V模型,成功將文本推理能力擴展到視覺領(lǐng)域。該模型僅用380億參數(shù)就實現(xiàn)了與大型閉源模型相媲美的多模態(tài)推理性能,在MMMU測試中達到69.0分,在MathVista獲得67.5分,同時保持了優(yōu)秀的文本推理能力。研究團隊采用高效的多模態(tài)遷移、混合優(yōu)化框架和自適應(yīng)推理鏈蒸餾三項核心技術(shù),成功實現(xiàn)了視覺理解與邏輯推理的完美結(jié)合,并將所有代碼和權(quán)重完全開源。