4月28日,HUAWEI WOMEN DEVELOPERS 2021華為女性開發(fā)者峰會·廣州站圓滿落幕,身處不同領(lǐng)域、不同職業(yè)發(fā)展階段的科技女性齊聚一堂,共同感受“她力量”。峰會邀請到了多位優(yōu)秀科技女性代表,從技術(shù)心得、從業(yè)經(jīng)驗和個人故事等方面多角度進行分享,她們還表達了對女性積極參與到科技領(lǐng)域中的鼓勵,和對女性在科技行業(yè)發(fā)揮獨特價值的信心。
峰會由華為全球性項目“女性開發(fā)者計劃” 發(fā)起并舉辦,該項目希望通過全方位資源支持,助力女性開發(fā)者創(chuàng)造改變世界的應(yīng)用和工具,為科技女性提供學(xué)習(xí)、交流和展示自我的平臺,激勵更多女性加入科技創(chuàng)新的領(lǐng)域,攜手共建多元化生態(tài)。
目前,女性在科技行業(yè)中的發(fā)展仍有較大空間和機會。為了消除“數(shù)字性別差距”,華為目前已經(jīng)在愛爾蘭、阿根廷、孟加拉、肯尼亞、南非等多個國家開展了女性數(shù)字技術(shù)賦能項目。華為消費者云服務(wù)開發(fā)者聯(lián)盟運營總監(jiān)在峰會致辭中表示:希望更多的女性發(fā)揮自身的才智與獨特價值,持續(xù)努力提升自我,勇于引領(lǐng)技術(shù)創(chuàng)新,展現(xiàn)自身的領(lǐng)導(dǎo)力。同時,華為“女性開發(fā)者計劃”也將會持續(xù)為科技女性提供更多的機會與支持。
Ladies Who Tech聯(lián)合創(chuàng)始人唐文潔首先分享了議題《科技不分性別》,她表示科技領(lǐng)域的發(fā)展離不開性別多元化和更加包容的團隊;面對現(xiàn)有的性別刻板印象和強勢偏見,女性需要更加勇敢地參與設(shè)計和創(chuàng)造科技或數(shù)字化產(chǎn)品。
在“她創(chuàng)業(yè)”的時代,科技女性如何披荊斬棘,用堅定和樂觀的心態(tài)去踏平創(chuàng)業(yè)路上的挑戰(zhàn)和困難是大家格外關(guān)注的問題。千聊聯(lián)合創(chuàng)始人劉藝通過自身經(jīng)歷,分享了女性創(chuàng)業(yè)者在惠普教育之路的探索和實踐,鼓勵科技女性努力創(chuàng)新,積極推動科技進步。
隨后,Huawei Ads產(chǎn)品總監(jiān)及華為UCD設(shè)計中心用戶體驗設(shè)計師也分別從商業(yè)思維、技術(shù)實踐角度,探討了女性開發(fā)者如何在技術(shù)交叉領(lǐng)域發(fā)揮更重要作用與價值。她們不約而同地表示,要永不設(shè)限,相信自己,女性可以用不同方式為科技行業(yè)做出自己的貢獻。
此外,華為持續(xù)關(guān)注女性學(xué)生群體在科技領(lǐng)域的發(fā)展,希望能夠激勵更多女學(xué)生在自己所研究的領(lǐng)域中實現(xiàn)價值,從而鼓勵更多女性從事科技工作。南京大學(xué)在讀研究生陳天心從GIS專業(yè)校園開發(fā)者的視角分享了在科研生活中的開發(fā)經(jīng)歷。同時,作為科技行業(yè)未來的職場新人,她呼吁更多的女學(xué)生投身于科技領(lǐng)域,用自己的勇敢和熱情,去創(chuàng)造出無限的可能。
未來,華為“女性開發(fā)者計劃”還將繼續(xù)通過課程培訓(xùn)、技術(shù)創(chuàng)新沙龍和實踐場景等賦能女性,幫助科技女性提升專業(yè)技術(shù),明確職業(yè)規(guī)劃;同時也將持續(xù)舉辦各類線上線下活動,幫助科技女性構(gòu)建深度互動的圈子;此外,還將為科技女性提供分享技術(shù)理解和職業(yè)心得的平臺,交流成長故事和成果,展現(xiàn)女性風采。
華為“女性開發(fā)者計劃”已面向全球女性開發(fā)者開放申請,更多信息請登陸華為開發(fā)者聯(lián)盟官網(wǎng),請訪問https://developer.huawei.com/consumer/cn/programs/hwd進入HWD 華為女性開發(fā)者頁面進行報名。
好文章,需要你的鼓勵
騰訊ARC實驗室推出AudioStory系統(tǒng),首次實現(xiàn)AI根據(jù)復(fù)雜指令創(chuàng)作完整長篇音頻故事。該系統(tǒng)結(jié)合大語言模型的敘事推理能力與音頻生成技術(shù),通過交錯式推理生成、解耦橋接機制和漸進式訓(xùn)練,能夠?qū)?fù)雜指令分解為連續(xù)音頻場景并保持整體連貫性。在AudioStory-10K基準測試中表現(xiàn)優(yōu)異,為AI音頻創(chuàng)作開辟新方向。
Meta與特拉維夫大學(xué)聯(lián)合研發(fā)的VideoJAM技術(shù),通過讓AI同時學(xué)習(xí)外觀和運動信息,顯著解決了當前視頻生成模型中動作不連貫、違反物理定律的核心問題。該技術(shù)僅需添加兩個線性層就能大幅提升運動質(zhì)量,在多項測試中超越包括Sora在內(nèi)的商業(yè)模型,為AI視頻生成的實用化應(yīng)用奠定了重要基礎(chǔ)。
上海AI實驗室發(fā)布OmniAlign-V研究,首次系統(tǒng)性解決多模態(tài)大語言模型人性化對話問題。該研究創(chuàng)建了包含20萬高質(zhì)量樣本的訓(xùn)練數(shù)據(jù)集和MM-AlignBench評測基準,通過創(chuàng)新的數(shù)據(jù)生成和質(zhì)量管控方法,讓AI在保持技術(shù)能力的同時顯著提升人性化交互水平,為AI價值觀對齊提供了可行技術(shù)路徑。
谷歌DeepMind團隊開發(fā)的GraphCast是一個革命性的AI天氣預(yù)測模型,能夠在不到一分鐘內(nèi)完成10天全球天氣預(yù)報,準確性超越傳統(tǒng)方法90%的指標。該模型采用圖神經(jīng)網(wǎng)絡(luò)技術(shù),通過學(xué)習(xí)40年歷史數(shù)據(jù)掌握天氣變化規(guī)律,在極端天氣預(yù)測方面表現(xiàn)卓越,能耗僅為傳統(tǒng)方法的千分之一,為氣象學(xué)領(lǐng)域帶來了效率和精度的雙重突破。