人隨時(shí)隨地都會(huì)有喜怒哀樂等情感的起伏變化。那么在人與人工智能交互過程中,機(jī)器是否能夠體會(huì)人的喜怒哀樂,并見機(jī)行事呢?
2021年7月7日,2021世界人工智能大會(huì)的H2-B110展臺(tái),我們看到一個(gè)大屏幕上出現(xiàn)一位AI頭像——“知心”,站在“知心”對(duì)面,它能夠跟你對(duì)話,通過對(duì)話,生成一份心理情緒檢測(cè)報(bào)告。這就是深圳市亞略特生物識(shí)別科技有限公司推出的“知心”情感計(jì)算。
亞略特展臺(tái)——“大觀視界”
情感計(jì)算研究就是試圖創(chuàng)建一種能感知、識(shí)別和理解人的情感,并能針對(duì)人的情感做出智能、靈敏、友好反應(yīng)的計(jì)算系統(tǒng),即賦予計(jì)算機(jī)像人一樣的觀察、理解和生成各種情感特征的能力。
亞略特展臺(tái)——“知心情感計(jì)算”
知心系統(tǒng)是基于腦電科學(xué)領(lǐng)域前庭情緒反饋(VER技術(shù))的研究,是遠(yuǎn)程非接觸式的生物信號(hào)技術(shù)和人工智能的深度學(xué)習(xí)技術(shù)為基礎(chǔ)的情感計(jì)算產(chǎn)品。通過賦予人工智能識(shí)別、理解、表達(dá)和適應(yīng)人的情感的能力來建立和諧人機(jī)環(huán)境,并使人工智能具有更高的、全面的智能。這是人工智能從感知到認(rèn)知智能發(fā)展的關(guān)鍵技術(shù)之一。
知心系統(tǒng)由算法、應(yīng)用、專用硬件三大類組成,由于亞略特公司具有自主的“算法、芯片、模塊、應(yīng)用、平臺(tái)、智能硬件制造”六位一體能力,也率先突破了“無感檢測(cè)、深度描述、多人群動(dòng)態(tài)切割、環(huán)境去噪、動(dòng)靜分離、專用設(shè)備一體化”等重大技術(shù)難題,從2020年1月份起將“技術(shù)”搬到了“應(yīng)用現(xiàn)場(chǎng)”,目前已經(jīng)應(yīng)用到社會(huì)層面多個(gè)“重點(diǎn)崗位”等領(lǐng)域的心理監(jiān)測(cè)。
觀眾現(xiàn)場(chǎng)體驗(yàn)“知心情感計(jì)算”
亞略特在人工智能和生物識(shí)別行業(yè)耕耘的17年間,擁有200多項(xiàng)多模態(tài)生物識(shí)別技術(shù)專利,生物識(shí)別算法和產(chǎn)品已通過中國相關(guān)部門GA評(píng)測(cè)、印度STQC認(rèn)證和美國MINEX/FBI認(rèn)證,相關(guān)產(chǎn)品及解決方案已落地覆蓋全國30多個(gè)省市,并銷往美國、意大利、墨西哥、西班牙、印度、菲律賓、泰國、安哥拉、尼日利亞、烏干達(dá)等十余個(gè)國家,正為全球超20億人口提供生物認(rèn)證產(chǎn)品和服務(wù)。
亞略特在“情感計(jì)算”領(lǐng)域,不管是在底層算法還是實(shí)際項(xiàng)目經(jīng)驗(yàn)上,都已經(jīng)具備了產(chǎn)業(yè)化的底蘊(yùn)和能力,亞略特希望能夠賦能更多的友商、合作伙伴、行業(yè),實(shí)現(xiàn)更多的場(chǎng)景化AI落地。
好文章,需要你的鼓勵(lì)
新加坡國立大學(xué)研究團(tuán)隊(duì)開發(fā)了SPIRAL框架,通過讓AI與自己對(duì)弈零和游戲來提升推理能力。實(shí)驗(yàn)顯示,僅訓(xùn)練AI玩簡(jiǎn)單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟(jì)大學(xué)團(tuán)隊(duì)開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機(jī)噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實(shí)現(xiàn)37.9%的精度提升,并在真實(shí)設(shè)備上展現(xiàn)出色泛化能力,為機(jī)器人、AR和自動(dòng)駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團(tuán)隊(duì)通過對(duì)比實(shí)驗(yàn)發(fā)現(xiàn),經(jīng)過強(qiáng)化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時(shí)刻"現(xiàn)象,但這些自我糾錯(cuò)行為并不能實(shí)際提升推理準(zhǔn)確率。研究揭示了AI模型存在"生成-驗(yàn)證差距",即生成答案的能力強(qiáng)于驗(yàn)證答案質(zhì)量的能力,且模型在自我驗(yàn)證時(shí)無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機(jī)構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動(dòng)態(tài)稀疏性實(shí)現(xiàn)大語言模型訓(xùn)練加速1.6倍,計(jì)算成本降低2.2倍。該方法使用SVD稀疏性估計(jì)器智能選擇重要計(jì)算部分,在保持模型性能的同時(shí)顯著提升訓(xùn)練效率,已在多個(gè)任務(wù)上驗(yàn)證有效性。