科技行者 3月14日 上海消息(文/Miss周):AWE2019(中國家電及消費電子博覽會)開展前夕,老牌家電大廠美的,在上海新國際博覽中心包下整個 W1 展館,展示未來科技生活樣板間,把旗下各式產(chǎn)品和技術(shù)通通擺到客廳、廚房、浴室、工廠等場景,一下子成為備受矚目的打卡地。
將源自航空渦輪的對旋技術(shù)應(yīng)用于空調(diào),實現(xiàn)可控風感;借鑒導(dǎo)彈從潛艇中發(fā)射的降噪技術(shù),讓煮飯機器人安靜烹飪;參考太陽能光熱發(fā)電,創(chuàng)新家電相變蓄熱技術(shù),顛覆熱水器的儲能原理、縮小體積……各類技術(shù)被引入產(chǎn)品,創(chuàng)新成果密集落地的背后,離不開美的的長線布局。
美的的長線布局有跡可循。從早期生產(chǎn)藥瓶蓋,發(fā)展為小小風扇廠,再蛻變?yōu)槿缃竦陌纂娋揞^,美的屢次擁抱變革。而近兩年,美的引起廣泛關(guān)注的一次“變革”是以 292 億元、溢價 36.2% 的大手筆,成功拿下德國庫卡,借此開啟了成為國際化科技公司的步伐,塑造了高端制造的形象。
美的深諳,沒有科技研發(fā)上的實力,絕不可能完成對產(chǎn)品和制造的跨越式提升。為此,美的過去五年研發(fā)累計投入近 300 億元,2018年研發(fā)投入 100 億人民幣,截止到 2018 年底,美的累計國內(nèi)專利申請量 9.4 萬件,授權(quán)維持量 4.4 萬件,目前美的在全球布局了20個研發(fā)中心,研發(fā)人員占比超 50%,博士和資深專家超過 500 人?;A(chǔ)研發(fā)正在成為美的構(gòu)建科技集團核心技術(shù)護城河的關(guān)鍵。
而為了更好地聯(lián)動人機,推動智能家居的數(shù)字化體驗,一方面,美的參與國際行業(yè)標準制定,成為中國首個 Wi-Fi 智能家電測試標準的家電企業(yè),致力于推動智能家居IoT(物聯(lián)網(wǎng))國際標準的制定與落地。另一方面,美的與阿里展開家電物聯(lián)網(wǎng)模組的合作,摸索如何讓智能家居的連接與使用體驗更上一層樓。
美的集團中央研究院院長徐成茂接受科技行者等媒體采訪時這樣定義美的:我們是一家制造業(yè)企業(yè),正在努力向科技型企業(yè)轉(zhuǎn)型。
即便是一家市值 3000 億,年研發(fā)資金投入 100 億的企業(yè),美的依舊不忘變革,想更深入的擁抱數(shù)字化時代,也想離互聯(lián)網(wǎng)和用戶更近一點。
中央研究院院長徐成茂
肩負美的品牌升級任務(wù)的子品牌 COLMO,定位為 AI 科技家電高端品牌,利用深度學習算法,圖像識別技術(shù),專家系統(tǒng)三大應(yīng)用,實現(xiàn)用 AI 科技做“看得見”的家電。
比如,一款售價超過 5 萬的冰箱里遍布攝像頭,攝像頭幫助冰箱了解里面有什么食材,智能根據(jù)食材保質(zhì)期、種類提醒主人是否過期、或者更換食譜,也能根據(jù)食材推送菜譜到櫥柜的屏幕上,當然其他聯(lián)網(wǎng)設(shè)備的屏幕也可以。
COLMO BLANC 全套系冰箱、洗衣機、油煙機、燃氣灶、洗碗機、煮飯機器人產(chǎn)品,均獲 iF 設(shè)計大獎。比如,BLANC煮飯機器人,AI 技術(shù)用來辨識米質(zhì)細微差別,根據(jù)米種去分配最佳的米水比和烹飪曲線,實現(xiàn)米飯、稀飯、粥等全自動烹飪“精準米水比”,或者自動煮出一鍋兩吃的硬米和軟米口感;BLANC洗衣機通過 AI 攝像頭自動判定衣物體積、衣型、護色識別,針對不同衣服的吸水情況,自動匹配用水量和洗滌劑,并以不同洗滌力度、不同水溫智能洗衣。
除了一系列家電新品以及高端品牌 COLMO,美的此次還發(fā)布了首個互聯(lián)家電品牌“布谷 BUGU”,這個新品牌的革新之處在于重構(gòu)產(chǎn)品和用戶的關(guān)系。
“布谷 BUGU”的核心戰(zhàn)略是用戶深度共創(chuàng),線上做了一個用戶共創(chuàng)平臺“布谷研究所”,邀請用戶深度參與從產(chǎn)品設(shè)計到內(nèi)測、公測、上市路演的全流程,共同構(gòu)建廚房、起居、衛(wèi)浴三大生活場景與空氣、水兩大專業(yè)場景互聯(lián)的產(chǎn)品組合。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學習外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學習40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學領(lǐng)域帶來了效率和精度的雙重突破。