2月1日,陳可辛現(xiàn)身北京三里屯《三分鐘》首映會現(xiàn)場,但此次推出的并非傳統(tǒng)院線電影,而是一部全程使用 iPhone X 拍攝的短篇作品,由陳可辛本人拍攝。
這篇作品講述了一位普通的女列車乘務(wù)員在今年的春節(jié)與家人、孩子站臺短暫團聚的故事。對他們而言,春節(jié)的意義全然濃縮在這三分鐘的團聚中,期盼、激動、喜悅等情緒的貫穿,更代表著大多數(shù)中國人對家、年、團聚、幸福的定義,故事精巧又溫暖感動。點擊鏈接可觀看完整視頻:http://v.youku.com/v_show/id_XMzM3MTIzMTM0OA==.html 體量雖小,但這部短篇作品的精致程度令人折服,其展現(xiàn)出來的視覺效果、鏡頭設(shè)計、光影使用足以媲美電影級作品。
《三分鐘》短篇作品片段
小巧的 iPhone X 實現(xiàn)“運動鏡頭”全掌控
相比于笨重的大相機,手機小巧性、便攜性的優(yōu)勢對于普通用戶大有幫助,尤其是iPhone X 機身輕盈,單手操作也毫無壓力,更有利于嘗試運動鏡頭的拍攝。陳可辛也表示:“有些一鏡到底的鏡頭,如從火車車廂直接移到窗外的站臺,手機比大相機靈活太多。”
此外, iPhone X 獨有的1200萬雙攝(分別為28mm f/1.8廣角鏡頭和52mm f/2.4長焦鏡頭)均支持光學(xué)防抖、手持防抖,拍出的畫面更穩(wěn)定、順滑。
大膽嘗試“特殊視角” 拍出不一樣
小巧的 iPhone X ,搭配市面通用的外設(shè)支架等配件,可以嘗試很多獨特角度,如高空、地面的兩極視角,移動物體的固定跟隨視角,狹小空間內(nèi)的全景視角等,帶來更多的新奇感。拍攝時大膽嘗試不一樣的角度,說不定就能成為視頻中最大的亮點。
《三分鐘》拍攝過程中,有三個鏡頭充分體現(xiàn)了 iPhone X “特殊視角”的豐富想象力。其一是安裝在火車前部穿越隧道山川,數(shù)度光影變幻, iPhone X 的反應(yīng)都快速準確,焦點穩(wěn)定,沒有出現(xiàn)虛焦;其二是火車從上方駛過的鏡頭,小巧的機身保持了足夠的成像空間和景深;其三是通過小型穩(wěn)定器安置在小演員身上的主觀機位,以孩子渴望見到媽媽的視角在人群中穿行的畫面極具感染力。
iPhone X 如何拍出最美人像?
“燈光”在任何影視拍攝中都必不可少,好的燈光甚至能起到畫龍點睛的效果。 iPhone X 的人像光效,通過對背景的暗化虛化呈現(xiàn)淺景深的人像效果,突出人物和線條,實現(xiàn)聚焦主體的舞臺光效果。隨手一點,就能自如切換不同的人像光效,實現(xiàn)明暗細節(jié)的還原,表達人物不同的情緒,對建立人物性格大有幫助。
陳可辛在發(fā)布會上也爆料,自己經(jīng)常用 iPhone 手機拍家人,自然光的人像效果,及時捕捉了家人每一瞬間的喜怒哀樂。
延時攝影 如何用 iPhone X “改變”“重組”時間?
相信很多人都想拍出“延時攝影”這種大片感的作品,如美麗的星空、來往的人流等,在短短幾秒內(nèi)就可以表達幾個小時、乃至幾天的時間,帶來更強烈的視覺沖擊。
陳可辛現(xiàn)場也談到,“電影之所以有趣,可能是因為我們可以通過電影去記錄時間、改變時間、甚至重組時間。”這正是導(dǎo)演認為延時攝影的魅力所在,表現(xiàn)出時間緯度的加速變換。通過 iPhone X 自帶的延時攝影后期處理特效,不需要專業(yè)的“長槍短炮”,普通人也能輕松拍出“大片”的感覺。
巧用“慢動作” 視覺錯覺帶來的情緒傳達
很多人認為,在視頻中運用畫面特效是不真實的,是在故意控制觀眾的情緒,其實不然。陳可辛在《三分鐘》一開場就是一個孩子搖晃煙花的慢動作鏡頭,配合孩子背誦乘法口訣的畫外音,孩子孤獨、等待的感覺躍然心頭,恰到好處的捕捉了人物的情緒。
對于普通用戶來說,用 iPhone X 能夠掌握更多專業(yè)的視頻拍攝手法,但是不管用什么拍攝手法,重要的還是要有真實的情感,這才是能夠打動人的關(guān)鍵。
iPhone X 的硬件支撐、簡單操作和“電影級”畫面呈現(xiàn)效果,足以讓普通人輕輕松松實現(xiàn)導(dǎo)演夢,隨時隨地記錄生活的點滴喜樂。在春節(jié)這個特殊的時間節(jié)點,何不用一部溫暖的全家福短片記錄更多美好瞬間呢?
好文章,需要你的鼓勵
新加坡國立大學(xué)研究團隊開發(fā)了SPIRAL框架,通過讓AI與自己對弈零和游戲來提升推理能力。實驗顯示,僅訓(xùn)練AI玩簡單撲克游戲就能讓其數(shù)學(xué)推理能力提升8.6%,通用推理提升8.4%,且無需任何數(shù)學(xué)題目作為訓(xùn)練材料。研究發(fā)現(xiàn)游戲中的三種推理模式能成功轉(zhuǎn)移到數(shù)學(xué)解題中,為AI訓(xùn)練提供了新思路。
同濟大學(xué)團隊開發(fā)的GIGA-ToF技術(shù)通過融合多幀圖像的"圖結(jié)構(gòu)"信息,創(chuàng)新性地解決了3D相機噪聲問題。該技術(shù)利用圖像間的不變幾何關(guān)系,結(jié)合深度學(xué)習(xí)和數(shù)學(xué)優(yōu)化方法,在合成數(shù)據(jù)集上實現(xiàn)37.9%的精度提升,并在真實設(shè)備上展現(xiàn)出色泛化能力,為機器人、AR和自動駕駛等領(lǐng)域提供更可靠的3D視覺解決方案。
伊利諾伊大學(xué)研究團隊通過對比實驗發(fā)現(xiàn),經(jīng)過強化學(xué)習(xí)訓(xùn)練的視覺語言模型雖然表現(xiàn)出"頓悟時刻"現(xiàn)象,但這些自我糾錯行為并不能實際提升推理準確率。研究揭示了AI模型存在"生成-驗證差距",即生成答案的能力強于驗證答案質(zhì)量的能力,且模型在自我驗證時無法有效利用視覺信息,為AI多模態(tài)推理發(fā)展提供了重要啟示。
MIT等頂尖機構(gòu)聯(lián)合提出SparseLoRA技術(shù),通過動態(tài)稀疏性實現(xiàn)大語言模型訓(xùn)練加速1.6倍,計算成本降低2.2倍。該方法使用SVD稀疏性估計器智能選擇重要計算部分,在保持模型性能的同時顯著提升訓(xùn)練效率,已在多個任務(wù)上驗證有效性。