av天堂久久天堂色综合,最近中文字幕mv免费高清在线,在线a级毛片免费视频,av动漫,中文字幕精品亚洲无线码一区

微信掃一掃,關(guān)注公眾號(hào)

  • 科技行者

  • 算力行者

見證連接與計(jì)算的「力量」

首頁(yè) 寶潔、本田、可口可樂這些公司正在利用AI捕捉你的喜怒哀樂

寶潔、本田、可口可樂這些公司正在利用AI捕捉你的喜怒哀樂

2018-01-24 16:36
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2018-01-24 16:36 ? CNET科技行者

《去年AI當(dāng)了回電影節(jié)作品編劇,現(xiàn)在MIT又訓(xùn)練它來預(yù)測(cè)觀眾淚點(diǎn)》)中,我們介紹了麻省理工學(xué)院(MIT)Media Lab如何通過AI來分析影片中常見的情感曲線,從而識(shí)別和預(yù)測(cè)人類的淚點(diǎn)。

今天,我們將進(jìn)一步介紹AI如何通過用戶或潛在用戶的面部表情、語(yǔ)言文字甚至肢體語(yǔ)言,來實(shí)現(xiàn)情緒識(shí)別,并反饋到企業(yè)、機(jī)構(gòu)和市場(chǎng)等場(chǎng)景中。

寶潔、本田、可口可樂這些公司正在利用AI關(guān)心你的情緒

往前追溯,情感人工智能技術(shù)最早是由Affectiva公司開發(fā)的,而情緒識(shí)別一詞則是由EMRAYS公司提出。兩者都在借助功能強(qiáng)大的AI軟件,識(shí)別人類收看廣告和撰寫評(píng)論時(shí)表達(dá)的情緒。

以下我們將對(duì)兩家公司做簡(jiǎn)單介紹:

借助情感智能連接用戶,洞察需求

Affectiva隸屬麻省理工學(xué)院(MIT)的Media Lab,2009年由Rosalind Picard 博士和Rana el Kaliouby博士(現(xiàn)公司CEO)聯(lián)手創(chuàng)建。Picard是工程博士,曾于1997年出版了Affective Computing,該書為情感智能技術(shù)的研究奠定了重要的基礎(chǔ)。目前,Picard仍就職于MIT,并兼任Affectiva的經(jīng)理,有時(shí)還寫書,并有持續(xù)的發(fā)明創(chuàng)造。

Picard博士在劍橋大學(xué)訪學(xué)期間,與Kaliouby博士相識(shí)。當(dāng)時(shí),Kaliouby博士正在研究如何實(shí)現(xiàn)設(shè)備及數(shù)據(jù)體驗(yàn)的情感智能,并試圖研發(fā)出能夠?qū)崟r(shí)識(shí)別和反饋用戶情感的初步算法。因?yàn)橄敕ǖ牟恢\而合,兩人決定聯(lián)手研發(fā)有助于自閉癥患者社交的可戴式眼鏡,以此向美國(guó)國(guó)家科學(xué)基金會(huì)(National Science Foundation)提出了立項(xiàng)申請(qǐng),并得以通過。隨后,Kaliouby也加入了MIT Media Lab。

在過去的很長(zhǎng)一段時(shí)間里,MIT Media Lab一直希望能將情感識(shí)別技術(shù)應(yīng)用于各自行業(yè)。譬如,日本豐田(Toyota)希望借助該技術(shù)監(jiān)測(cè)司機(jī)在駕駛過程中的疲勞狀態(tài),寶潔(Procter and Gamble)希望借此洞察用戶對(duì)于新香味沐浴露的反饋,火狐(Fox)則想借其探究觀眾如何與電視節(jié)目互動(dòng)

為滿足以上一系列的需求,經(jīng)過多輪的商討和研究,Affectiva應(yīng)運(yùn)而生,并獲得MIT Media Lab的全力支持。

Affectiva的第一款產(chǎn)品誕生于2010年,客戶多為媒體、廣告和市場(chǎng)調(diào)研公司,如跨國(guó)市場(chǎng)調(diào)研公司Kantar Millward Brown。

如今,已有1400多家公司正在使用該技術(shù)來觀察和分析顧客的情感參與度。Affectiva將其產(chǎn)品定位為一個(gè)集計(jì)算機(jī)視覺、深度學(xué)習(xí)和世界上最大的情感數(shù)據(jù)庫(kù)于一身的情感智能技術(shù)平臺(tái)。

三年前,Affectiva發(fā)布了情感識(shí)別軟件開發(fā)包(SDK),緊接著又推出了移動(dòng)版SDK,如今,該產(chǎn)品已經(jīng)能在七種平臺(tái)上運(yùn)行。經(jīng)過E輪融資后,截至目前Affectiva共融資2630萬美元。

而現(xiàn)如今,我們看到,事實(shí)上除了媒體、廣告和市場(chǎng)調(diào)研公司之外,教育和醫(yī)療健康等領(lǐng)域也越來越關(guān)注如何利用情感識(shí)別技術(shù)記錄情感,連接用戶,洞察用戶需求。“過去的八到十個(gè)月,大批一線公司都在咨詢?cè)摷夹g(shù),需求數(shù)量急劇增加。”Affectiva首席市場(chǎng)官Gabi Zijderveld稱,“無人駕駛汽車領(lǐng)域也開始著眼情感智能,從而實(shí)現(xiàn)所謂的‘司機(jī)狀態(tài)監(jiān)測(cè)’。此外,Zijderveld還表示,已經(jīng)有無人駕駛汽車制造商正在開展相關(guān)的實(shí)驗(yàn)項(xiàng)目。

據(jù)她介紹,Affectiva的情感識(shí)別軟件已經(jīng)分析了來自87個(gè)國(guó)家的20億張面孔。[編者按:2016年全球人口數(shù)為74億。]受試者的酬勞為5小時(shí)25美元。

EMRAYS:對(duì)多語(yǔ)言文本進(jìn)行情感解析

EMRAYS創(chuàng)建于荷蘭,其技術(shù)主要用于識(shí)別學(xué)術(shù)和商業(yè)文本。“我們是多語(yǔ)言情感識(shí)別軟件分析公司,” EMRAYS 的首席市場(chǎng)官和聯(lián)合創(chuàng)始人Michiel Maandag表示:“我們的技術(shù)可通過分析多語(yǔ)言文本,預(yù)測(cè)讀者自然和無偏見的情感反饋。”

EMRAYS的四名創(chuàng)始人和現(xiàn)任CEO分別為:CEO和首席科學(xué)家Ilia Zaitsev是俄羅斯彼得斯堡大學(xué)的計(jì)算語(yǔ)言學(xué)博士,他致力于借助機(jī)器學(xué)習(xí)技術(shù)分析語(yǔ)言,從文本中提取情感情緒建立模型;首席技術(shù)官和首席數(shù)據(jù)師Paul Tero擁有加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)本科學(xué)位和蘇塞克斯大學(xué)進(jìn)化和自適應(yīng)系統(tǒng)專業(yè)的碩士學(xué)位;首席體驗(yàn)官Cliff Crosbie曾任耐克、諾基亞、宜家和蘋果公司的零售和銷售主管;首席營(yíng)銷官M(fèi)ichiel Maandag曾任諾基亞品牌總監(jiān),現(xiàn)為獨(dú)立營(yíng)銷專家,與多家行業(yè)品牌進(jìn)行過合作。

公司現(xiàn)主要提供四種產(chǎn)品:其一,軟件即服務(wù)(SaaS)平臺(tái),主要針對(duì)博主、記者、作家,用于研究并檢查其作品所帶來的情感影響;其二,用于情感分析的社交傾聽(Social Listening)產(chǎn)品;面向媒體機(jī)構(gòu)和企業(yè)的廣告定位產(chǎn)品;針對(duì)研發(fā)者的應(yīng)用程序界面(API)和軟件開發(fā)包(SDK)。

EMRAYS曾用名為Emotions.Tech,于2017年7月正式更名,并于同年加入英偉達(dá)(NVIDIA)項(xiàng)目,與英國(guó)的獨(dú)立搜索供應(yīng)商Mojeek合作研發(fā)情感搜索引擎,目的是根據(jù)用戶情感需求提供搜索結(jié)果。

EMRAYS的首席技術(shù)官Paul Tero表示:“依據(jù)觀眾的情緒回饋分析數(shù)字內(nèi)容,能夠重新定義人類與技術(shù)之間的關(guān)系。同時(shí),網(wǎng)絡(luò)廣告商也能針對(duì)消費(fèi)者情感需求投放廣告。”

具體來看,識(shí)別文本情感需處理大量文本。而EMRAYS通過使用英偉達(dá)的GPU來完善深度學(xué)習(xí),根據(jù)網(wǎng)頁(yè)中體現(xiàn)情感的內(nèi)容進(jìn)行排名、羅列和搜索。Tero 表示,“該技術(shù)可幫助我們快速掌握人類復(fù)雜的情緒。” “NVIDIA GPU是我們系統(tǒng)的運(yùn)行基礎(chǔ),不到一毫秒可處理一頁(yè)元數(shù)據(jù)標(biāo)記,比普通GPU要快50倍。”

為關(guān)注讀者的情緒反饋,EMRAYS的研究工具不僅統(tǒng)計(jì)了文本中積極和消極詞匯的數(shù)量,分析了作者的語(yǔ)氣。此外,還每天收集社交媒體上的數(shù)百萬條反饋,繼而借助這些數(shù)據(jù)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò),預(yù)測(cè)人類在閱讀某段內(nèi)容時(shí)可能產(chǎn)生的情緒。EMRAYS表示自己已經(jīng)分析了十億多個(gè)情緒數(shù)據(jù)點(diǎn)。Facebook和Twitter社交媒體平臺(tái)每天都能通過這樣的方式為EMRAYS提供大量信息訓(xùn)練數(shù)據(jù),進(jìn)一步提升神經(jīng)網(wǎng)絡(luò)準(zhǔn)確度。

據(jù)了解,目前EMRAYS能夠處理的語(yǔ)言包括了英語(yǔ)、挪威語(yǔ)、荷蘭語(yǔ)、瑞典語(yǔ)和俄羅斯語(yǔ)等。

而為了觀察軟件的工作原理,EMRAYS還聘請(qǐng)了包括記者在內(nèi)的用戶參與測(cè)試。公司聯(lián)合創(chuàng)立人兼首席營(yíng)銷官M(fèi)ichiel Maandag接受AI Trends網(wǎng)站采訪時(shí)表示,對(duì)作家來說,這就像情緒“語(yǔ)法檢查器”。“實(shí)際上,即便順利完成情緒分析,也無法理解其真正含義。而我們卻可以了解文本是如何影響讀者的。” Maandag說。

涉足情緒識(shí)別領(lǐng)域的其他公司

  • Innerscope:消費(fèi)者研究公司Nielsen去年收購(gòu)了Innerscope,該公司通過使用大腦掃描和皮膚電反應(yīng)(GSR)等生物測(cè)定技術(shù),從而識(shí)別人們潛意識(shí)中對(duì)媒體和營(yíng)銷的情緒反應(yīng)。
  • 初創(chuàng)公司Emotient每天收集并標(biāo)記100,000個(gè)面部圖像,此方法已申請(qǐng)專利,可以幫助計(jì)算機(jī)實(shí)現(xiàn)面部表情識(shí)別能力。2016年Emotient被蘋果收購(gòu)。未來,其情緒識(shí)別技術(shù)很可能會(huì)被iPhone和iPad采用,從而使得用戶的搜索更具針對(duì)性,更加人性化。
  • 除此之外,nViso公司正在為網(wǎng)站和移動(dòng)應(yīng)用提供實(shí)時(shí)情緒識(shí)別服務(wù);Visage Technologies AB公司在Visage的軟件開發(fā)包中增加了情緒評(píng)估服務(wù),用于市場(chǎng)營(yíng)銷和科學(xué)研究;情緒識(shí)別公司Eyeris的正在與包括汽車制造商等嵌入式系統(tǒng)制造商、社交機(jī)器人公司和視頻內(nèi)容創(chuàng)作方在內(nèi)的公司一起,致力于情緒識(shí)別技術(shù)的落地應(yīng)用。

寶潔、本田、可口可樂這些公司正在利用AI關(guān)心你的情緒




其中,家樂氏正在利用Affectiva開發(fā)的軟件幫助Crunchy Nut麥片的實(shí)現(xiàn)廣告創(chuàng)意,意圖吸引更多消費(fèi)者。比如,Affectiva發(fā)現(xiàn),當(dāng)觀眾們觀看了動(dòng)物主題的各版本商業(yè)廣告時(shí),其中以蛇為主角的版本反響最好,但觀看第二遍時(shí),吸引力卻大大降低;再比如,Affectiva發(fā)現(xiàn),以外星人為主題的廣告非常受到觀眾的歡迎,因此,家樂氏推出了外星人主題廣告推動(dòng)谷類食品銷售。

總而言之,情感人工智能和情緒識(shí)別技術(shù)正在日趨成熟,并廣泛應(yīng)用于計(jì)算機(jī)交互各領(lǐng)域。這意味著,我們正在一起走進(jìn)一個(gè)情緒被監(jiān)測(cè)、評(píng)估和記錄的時(shí)代。

| 來源:AI Trends;作者:John P. Desmond;編譯整理:科技行者

分享至
0贊

好文章,需要你的鼓勵(lì)

推薦文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-