av天堂久久天堂色综合,最近中文字幕mv免费高清在线,在线a级毛片免费视频,av动漫,中文字幕精品亚洲无线码一区

微信掃一掃,關(guān)注公眾號(hào)

  • 科技行者

  • 算力行者

見證連接與計(jì)算的「力量」

首頁 埃隆·馬斯克推薦了一本麻省理工教授的書,沒想到作者“懟”了他的AI威脅論

埃隆·馬斯克推薦了一本麻省理工教授的書,沒想到作者“懟”了他的AI威脅論

2017-09-20 21:26
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2017-09-20 21:26 ? CNET科技行者

一直致力于宣傳“AI威脅論”的大V馬斯克最近又有新動(dòng)作,上個(gè)月底,馬斯克在Twitter上推薦了麻省理工學(xué)院的物理學(xué)家Max Tegmark的新書《生活3.0:人工智能時(shí)代的人類》,并寫道:“@Tegmark的新書Life 3.0值得一讀。AI可能是人類史上最好或最壞的事情,我們需要正確對(duì)待它。”再次提醒人工智能的威力不容小覷。

不過,馬斯克被Max Tegmark懟了!近期,Max Tegmark接受THE GUARDIAN采訪時(shí)表示看好AI發(fā)展?jié)撃埽?ldquo;我認(rèn)為AI時(shí)代我們需要做的就是保持幽默感和諷刺意識(shí)。不能因?yàn)樽约菏沁@個(gè)星球上最聰明的生物而沾沾自喜,恰恰是因?yàn)槲覀兡軌驅(qū)⑺衅嫠济钕胱兂杉夹g(shù),而發(fā)明這些技術(shù)的目的就在于不讓我們?nèi)祟惓蔀榈厍蛏献盥斆鞯娜恕?rdquo;

Max Tegmark是誰?麻省理工學(xué)院的物理學(xué)家,馬斯克的小伙伴

馬斯克又被小伙伴“懟”了|《生活3.0:人工智能時(shí)代的人類》作者發(fā)話看好AI的發(fā)展?jié)撃? width=

Max Tegmark是麻省理工學(xué)院物理學(xué)家、宇宙學(xué)家,他一直專注于平行宇宙的研究。近些年,它開始關(guān)注人工智能,并成為“機(jī)器威脅論”的主要擁護(hù)者。

Max Tegmark聯(lián)合了若干同事和朋友,成立了Future of Life組織,用來分析那些可能對(duì)人類構(gòu)成威脅的技術(shù)。過去幾年,該組織曾在《The New York Times》和《The Washington Post》發(fā)表文章,提出自動(dòng)武器的危險(xiǎn)。該文章聯(lián)合了包含霍金、馬斯克、Steve Wozniak在內(nèi)的20000人進(jìn)行簽名。而在2015年1月,Tegmark召開了第一屆討論人工智能威脅的會(huì)議。該會(huì)議以1975年召開的有關(guān)重組DNA的Asilomar會(huì)議為模板,在Puerto Rico進(jìn)行了三天的討論。據(jù)參會(huì)者透露,其中的一個(gè)核心討論內(nèi)容就是機(jī)器智能何時(shí)能夠趕超人類。像Ng這樣的人工智能專家認(rèn)為這還需要數(shù)百年,而馬斯克和Stuart Russel等則認(rèn)為這很快就會(huì)實(shí)現(xiàn)。最終,Tegmark給出的中間答案是40年。他表示,機(jī)器不需要本身就是邪惡的才會(huì)對(duì)人類構(gòu)成威脅。

近日,Max Tegmark發(fā)表了其撰寫的新書——《生命3.0:作為人工智能時(shí)代的人類》,這本馬斯克強(qiáng)烈認(rèn)可的書到底寫了什么?其探索分析了人類進(jìn)化的最新階段。Tegmark指出,像我們的宇宙進(jìn)化歷程一樣,生命逐漸變得更加復(fù)雜和有趣,我發(fā)現(xiàn)這將有助于將生命形式分類成3個(gè)復(fù)雜等級(jí):生命1.0、生命2.0和生命3.0。書中的簡介向我們提出一連串的發(fā)問:如何在避免人類失去收入與目標(biāo)的情況下用自動(dòng)化讓社會(huì)更繁榮?我們能給孩子怎樣的職業(yè)建議?怎樣才能讓未來的AI系統(tǒng)足夠強(qiáng)大,無視一切故障、崩潰和黑客攻擊為人類服務(wù)?有必要擔(dān)心致命的自動(dòng)化武器的軍備競賽嗎?機(jī)器最終在所有問題上都比人類聰明嗎?它是會(huì)為生命帶來史無前例的發(fā)展,還是會(huì)帶來人類不可控的力量?

馬斯克一直對(duì)AI心存畏懼,這是公認(rèn)的事實(shí),他曾讀過Bostrom的《超級(jí)智能》一書,這也是他首次在twitter上呼吁“AI威脅論”的起因,不過,Bostrom站出來“懟”過馬斯克,他在USI演講上曾表示,“我想借此機(jī)會(huì)說一句,我對(duì)此其實(shí)并沒有那么悲觀。”

而這次,馬斯克推薦了Max Tegmark的書《生活3.0:人工智能時(shí)代的人類》,也被作者無情的懟了…

AI并不一定是“壞事兒” 其發(fā)展比氣候變化更為迫切

幾年前的一天,在南肯辛頓科學(xué)博物館外面,Max Tegmark突然開始哭泣,淚如雨下。那時(shí),他剛剛參觀完一個(gè)有關(guān)人類知識(shí)增長的展覽,展示內(nèi)容包括了從查爾斯·巴貝奇(英國發(fā)明家、電腦先驅(qū))的差分機(jī)到阿波羅11號(hào)的復(fù)制品。而讓他感到激動(dòng)不已的卻不是這些標(biāo)志性的技術(shù)發(fā)現(xiàn),而是由這些展品所激發(fā)的頓悟。

他回憶說:“某種觀念就像磚塊突然擊中了我,即每當(dāng)我們了解了自然界中的某些東西,或者了解了自己的某些方面時(shí),這些知識(shí)就已經(jīng)過時(shí)了。如一旦了解肌肉如何工作,便以機(jī)器的形式制造機(jī)能更強(qiáng)大的肌肉。也許如果了解了大腦如何工作,將建立更好的大腦,但這也將使得這些知識(shí)變得完全過時(shí)。”

Tegmark的看法并不是什么虛無縹緲的假設(shè),而是人工智能時(shí)代的黎明時(shí)期其對(duì)自己的智力所發(fā)出的挑戰(zhàn)。受其啟發(fā),他開始產(chǎn)生疑問,即如果我們設(shè)法創(chuàng)造出超越自己的智慧,那人類將變得如何呢?

當(dāng)然這也是科幻小說一再描述的一個(gè)問題。然而,隨著AI成為科學(xué)事實(shí),它也具有了不同的意義和緊迫性。Tegmark認(rèn)為:現(xiàn)在是時(shí)候研究人工智能的可能性了,特別是可能創(chuàng)建出所謂超級(jí)智能的可能性。

Jaan Tallinn是Skype的聯(lián)合創(chuàng)始人,也是Tegmark的好朋友。Tegmark與其共同合作,受馬斯克的資金支持,他們成立了未來生命研究所,致力于研究人類面臨的生存風(fēng)險(xiǎn)。該研究所位于馬薩諸塞州劍橋市,與牛津大學(xué)人文學(xué)院的人類未來研究院不同,后者是由Tegmark的同事,瑞典哲學(xué)家Nick Bostrom建立。

Tegmark推出了新書《生活3.0:人工智能時(shí)代的人類》。曾寫過像多元文化這樣深刻且有理論深度的作家,Tegmark并不害怕自己成為知識(shí)淵博但只能進(jìn)行天馬行空般推測的人。

弄清AI的困難之處在于它總是陷在各種神話和誤解的泥濘沼澤之中。Tegmark試圖解決AI這一固有形象問題。即先仔細(xì)解釋其所涉及或與智慧、記憶、學(xué)習(xí)、意識(shí)等相關(guān)的概念,再以通俗易懂的方式解釋。

首先,在波士頓,Tegmark雖以電話形式發(fā)言,但他卻十分真誠的希望能夠闡明AI的本質(zhì)。

“我認(rèn)為好萊塢電影誤導(dǎo)了我們,”他說,“對(duì)機(jī)器發(fā)展變成自我意識(shí)和邪惡的恐懼實(shí)際只是一種轉(zhuǎn)移人們注意力的觀點(diǎn)。高級(jí)人工智能真正擔(dān)心的不是其可能危害人類,而是其不夠智能無法幫助人類。如果你擁有超智能AI,從理論上說,它將非常擅于實(shí)現(xiàn)目標(biāo)。我們能做的是確保其目標(biāo)與我們的目標(biāo)一致。我不討厭螞蟻,但如果讓我負(fù)責(zé)在一個(gè)蟻冢地區(qū)建設(shè)綠色能源水電站,這對(duì)于那些螞蟻來說就太糟糕了。我們不想讓自己處于這些螞蟻的位置。”

《生活3.0:人工智能時(shí)代的人類》一書遠(yuǎn)非悲嘆人工智能的未來,更像在慶祝超級(jí)智能未來的發(fā)展?jié)撃堋?/strong>但什么是超級(jí)智能呢?或者更近一步,什么是智力?Tegmark將其定義為:“完成復(fù)雜目標(biāo)的能力”。因此,計(jì)算機(jī)是智能的。但它們的智慧又是狹隘的。

目前,計(jì)算機(jī)能夠在遠(yuǎn)超出人類能力范疇的某些領(lǐng)域處理信息。例如,世界上最好的棋手對(duì)陣現(xiàn)代計(jì)算機(jī)程序時(shí)就沒有取得成功。但是,這個(gè)程序?qū)τ谝粋€(gè)玩簡單畫圈打叉游戲的孩子而言又是無用的。人類,即使是年紀(jì)輕輕卻已擁有廣泛的能力,而電腦,只能處理某些特定的任務(wù)。

馬斯克又被小伙伴“懟”了|《生活3.0:人工智能時(shí)代的人類》作者發(fā)話看好AI的發(fā)展?jié)撃? width=

顧客拍攝的東京三越百貨公司Toshida人形機(jī)器人Aiko Chihira的照片

所以計(jì)算機(jī)的智力僅限于我們的掌控范圍之內(nèi),像我們預(yù)先編程設(shè)計(jì)的那樣。然而,隨著進(jìn)入AI時(shí)代,事情開始發(fā)生轉(zhuǎn)變。先例如Google人工智能技術(shù)DeepMind,其計(jì)算機(jī)自學(xué)就是通過不斷犯錯(cuò),嘗試實(shí)現(xiàn)自我提升。到目前為止,該技術(shù)僅在視頻游戲和棋盤游戲中體現(xiàn),但可能會(huì)擴(kuò)展到其他媒體。如果該技術(shù)傳播開來,將對(duì)我們的生活和思考許多其他問題產(chǎn)生深遠(yuǎn)影響。

Tegmark開始創(chuàng)建環(huán)境定義,且通過不同發(fā)展階段的網(wǎng)格來研究這些問題。在他看來,生命最開始的階段是最原始的生活形式,如細(xì)菌,稱之為“Life 1.0”。而這還只是一個(gè)簡單的生物階段,生命也只是復(fù)制,只有進(jìn)化才有可能適應(yīng)環(huán)境。

“Life 2.0”或者稱之為文化舞臺(tái),是人類所在之處:在這里人類能夠?qū)W習(xí),適應(yīng)不斷變化的環(huán)境,有意識(shí)的改變環(huán)境。然而,我們還不能改變我們自己的身體,或是生物遺傳性能。Tegmark將這種情況描述為硬件和軟件。我們設(shè)計(jì)自己的軟件——“走路、閱讀、寫作、計(jì)算、唱歌和說笑話”的能力——但我們的生物硬件(大腦和身體性能)則受演變的限制。

Life 3.0的第三個(gè)階段是技術(shù)階段,在此階段人類不僅可以重新設(shè)計(jì)其軟件,還可以重新設(shè)計(jì)硬件。Tegmark寫道,這種形式的生活中,人類是“自己命運(yùn)的主人,終于完全擺脫了進(jìn)化的束縛”。

這種新的智慧將是不朽的,能夠幫助我們探索宇宙的奧秘。換句話說,這將是生命(但不是我們熟知的那種生命)形式。但其究竟是生命還是某種別的東西呢?Tegmark作為物理學(xué)家絕不是多愁善感的人。他是唯物主義者,將世界和宇宙視為超越由不同層次的粒子組成的不同層次的活動(dòng)。他對(duì)生物、凡人智慧、智能、自我持續(xù)的機(jī)器之間并不持有任何特定意義或道德上的區(qū)別觀點(diǎn)。

Tegmark在Life 3.0中描述了未來有無限可能性,有時(shí)他的描述如夢如幻,甚至帶著某些必勝的信念;但他也是一名理論家,總是為大多數(shù)人設(shè)身處地的考慮有什么事物難以想象或帶來不愉快感覺。

盡管如此,持不同觀點(diǎn)的人可能會(huì)在實(shí)現(xiàn)時(shí)間上爭論,但即使是他的詆毀者也認(rèn)同他的假設(shè)不是憑空而來。簡單來說,我們正處于AI——自駕車、智能家居控制單元等自動(dòng)機(jī)時(shí)代的早期階段。但是,如果這種趨勢持續(xù)快速發(fā)展,那么某個(gè)時(shí)候,假設(shè)30年、50年、200年后呢?——計(jì)算機(jī)將以許多方式成為擁有人類智力的等同物。

一旦電腦達(dá)到這個(gè)階段,改善將持續(xù)增速,因?yàn)槠鋵碛懈鼮閺?qiáng)大的處理能力,并利用該能力進(jìn)一步幫助增強(qiáng)其能力。這是Bostrom在2014年出版的《超級(jí)智能》一書中提出的觀點(diǎn),而這種智力大規(guī)模擴(kuò)張(或者稱之為完成復(fù)雜目標(biāo)的能力)也的確是超級(jí)智慧。

然而,超級(jí)智能并不是必然?,F(xiàn)場有很多人認(rèn)為電腦永遠(yuǎn)不會(huì)與人類智慧相匹敵,或者如果電腦真的達(dá)到了人類智慧,人類則會(huì)自我適應(yīng)。但是,如果這有可能成為現(xiàn)實(shí),Tegmark認(rèn)為迫切需要人們認(rèn)真思考這個(gè)問題。

“當(dāng)真正處于戲劇性事件可能發(fā)生的情況下,我認(rèn)為我們最好在這幾十年就開始做準(zhǔn)備,以便其成為我們的助力。如果30年前就已為氣候變化做好了準(zhǔn)備,這對(duì)現(xiàn)在將是很好的事情。”

像Bostrom一樣,Tegmark認(rèn)為AI的發(fā)展比氣候變化更為迫切。然而,如果我們正在創(chuàng)造的是連我們自己都不太能理解的人工智能,那么依靠其所做出的準(zhǔn)備又會(huì)產(chǎn)生怎樣的影響呢?又將如何能夠限制一項(xiàng)超出我們自身智力范圍的智能呢?

Tegmark承認(rèn),這一問題目前還無人能回答,但他認(rèn)為還有許多其他任務(wù)值得我們優(yōu)先考慮。

“擔(dān)心超級(jí)智能可能導(dǎo)致的長期問題之前,我們需要解決一些目前較為迫切的問題。不要將追求完美變成我們的敵人。毫無疑問,任何情況下我們都不希望飛機(jī)飛進(jìn)山區(qū)或撞上建筑物。當(dāng)Andreas Lubitz感到沮喪時(shí),他告訴自動(dòng)駕駛儀下降到100米,電腦聽從了他的指令!電腦完全不知道人類的目標(biāo),即使我們現(xiàn)在有能力建造一種模式:只要飛行員進(jìn)入飛行狀態(tài),將進(jìn)入安全模式,將駕駛艙和陸地定位在最近的機(jī)場。但即使是這種最基本的操作規(guī)范,也應(yīng)該在開始時(shí)將這些指令設(shè)置在機(jī)器中。”

但在此之前,Tegmark說我們還有更緊迫的工作要做。我們?nèi)绾螌F(xiàn)在這種充滿漏洞和易被入侵的計(jì)算機(jī)打造成我們能夠真正信任的、強(qiáng)大的AI系統(tǒng)?這非常重要,盡管目前我們社會(huì)作為一個(gè)整體,在處理這個(gè)問題上仍然非常輕率。世界各國政府應(yīng)該將其作為計(jì)算機(jī)科學(xué)研究的重要部分。

Tegmark認(rèn)為,通過放棄人工智能研究以阻止超級(jí)人工智能的興起,這個(gè)辦法不可行。“得益于技術(shù)進(jìn)步的2017年,我們的生活無論從哪一方面來說都比石器時(shí)代更好。討論支不支持AI這個(gè)話題,就像詢問是支持還是反對(duì)火一樣可笑?;鸾o我們的家庭帶來溫暖,我們都喜歡火,同時(shí)我們也都需要防止縱火。”

因此,我們需要火但同時(shí)身肩防止縱火的責(zé)任。正如Tegmark所指出的那樣,各國開始進(jìn)行能夠致命的自主武器的軍備競賽,互爭雄長。俄羅斯總統(tǒng)曾說,誰掌握了AI,誰就是“世界的統(tǒng)治者”。與生物和化學(xué)武器被禁止的方式大致相同,聯(lián)合國會(huì)議于11月審議了一項(xiàng)可行的國際條約以禁止這些武器。Tegmark說:“AI團(tuán)體強(qiáng)烈支持這一條約”,“技術(shù)方面,自主暗殺無人機(jī)和亞馬遜交付書籍無人機(jī)相差無幾。”

馬斯克又被小伙伴“懟”了|《生活3.0:人工智能時(shí)代的人類》作者發(fā)話看好AI的發(fā)展?jié)撃? width=

BAE系統(tǒng)的塔拉尼斯無人隱形機(jī)原型被描述為“第一個(gè)自主無人機(jī)”

“未來十年的另一個(gè)大問題是工作自動(dòng)化。許多著名經(jīng)濟(jì)學(xué)家認(rèn)為,不平等日益擴(kuò)大才導(dǎo)致英國脫歐和特朗普當(dāng)選總體,而這一切都是自動(dòng)化驅(qū)動(dòng)的。如果政府能重新分配機(jī)器帶來的巨大財(cái)富,那這是一個(gè)很好的機(jī)會(huì)讓大家的生活變得更美好,會(huì)使每個(gè)人都受益。“

Tegmark認(rèn)為:秉承對(duì)自由市場的信仰,英國作為一個(gè)有悠久國家醫(yī)療服務(wù)體系的福利國家,可以利用企業(yè)創(chuàng)新為國家謀取利益方面發(fā)揮主導(dǎo)作用。分析認(rèn)為:事實(shí)上,很多AI研究是俄羅斯和中國政府主導(dǎo)。除此之外,大部分的AI技術(shù)進(jìn)步都來自于美國政府或公司。但作為一個(gè)社會(huì)整體,美國并沒有像過去那樣習(xí)慣性地過度關(guān)注不平等問題。

這本書中,Tegmark向Google的Larry Page(地球上最富有的人之一)致敬。Larry Page有可能成為有史以來最有影響力的人。Tegmark說:“根據(jù)我的猜測,我有生之年如果超級(jí)智能數(shù)字生活能徹底改變世界,那將多虧了Larry的決定。”

Tegmark確實(shí)是周到又真誠地關(guān)心著人類困境。毫無疑問他確實(shí)是真的關(guān)心。但作為一個(gè)商人,他首先關(guān)心獲取利潤,打敗競爭對(duì)手。而事實(shí)證明,不具代表性的科技億萬富豪手中掌握著太多的決策權(quán)。

在我看來,雖然AI的直接問題本質(zhì)上是技術(shù)性的,或者說在政治意義上是技術(shù)性的,那些尚未解決的問題本質(zhì)上遠(yuǎn)不止是哲學(xué)問題那么簡單。

他說:“重要的是要意識(shí)到智力等通于權(quán)力,我們能駕馭老虎的原因,不是因?yàn)槲覀冇懈鼜?qiáng)壯的肌肉或更尖銳的牙齒,而是因?yàn)槲覀兏斆?。更高的?quán)力最終可能控制地球。可能是有些人借助先進(jìn)的人工智能獲得了巨大的權(quán)利,或者可能是機(jī)器比我們更聰明并設(shè)法取得自主控制權(quán)。這不一定是壞事。父母與孩子的目標(biāo)是一致的,所以孩子們不介意有更聰明的生物,叫媽媽和爸爸。AI可以解決我們所有棘手的問題,幫助人類前所未有地蓬勃發(fā)展。”

但是,這會(huì)不會(huì)從根本上改變?nèi)祟惖谋拘?,尋求?yōu)秀的代理人來照顧我們嗎?我們將不再是塑造我們這個(gè)世界的主要力量。

馬斯克又被小伙伴“懟”了|《生活3.0:人工智能時(shí)代的人類》作者發(fā)話看好AI的發(fā)展?jié)撃? width=

安博,作為中國第一個(gè)智能警察機(jī)器人,于2016年9月在廣東深圳寶安機(jī)場巡視

他笑著說:“沒錯(cuò),當(dāng)今世界有很多人認(rèn)為事情本該如此,并對(duì)此樂見其成。宗教人士認(rèn)為世上存在一個(gè)比他們更強(qiáng)大更聰明的人,而這個(gè)人正在尋找他們。我覺得我們真正需要戒掉的是一種傲慢觀念,即將自我價(jià)值錯(cuò)置于人類例外論的觀念。如果我們學(xué)會(huì)謙虛,說或許有比我們更聰明的生物,那么人類會(huì)變得更好。但是沒關(guān)系,我們可以從其他事情中獲得自我價(jià)值:與人類有真正、深厚的關(guān)系以及奇妙的啟發(fā)經(jīng)驗(yàn)。”

此刻,與一些沉迷于思索宇宙新時(shí)代的教授不同的是,Tegmark聽起來不太像一個(gè)堅(jiān)定的唯物主義物理學(xué)家。但毫無疑問,推動(dòng)建造這些機(jī)器的現(xiàn)代主義項(xiàng)目的,是基于上帝不再需要發(fā)明的信念——如果發(fā)明了新的神來取代舊神,這難道不是一個(gè)痛苦的歷史諷刺嗎?

Tegmark笑道,“我認(rèn)為AI時(shí)代我們需要做的就是保持幽默感和諷刺意識(shí)。不能因?yàn)樽约菏沁@個(gè)星球上最聰明的生物而沾沾自喜,恰恰是因?yàn)槲覀兡軌驅(qū)⑺衅嫠济钕胱兂杉夹g(shù),而發(fā)明這些技術(shù)的目的就在于不讓我們?nèi)祟惓蔀榈厍蛏献盥斆鞯娜恕?/p>

研究和撰寫這本書之后,與在南肯辛頓的悲觀時(shí)期相比,Tegmark現(xiàn)在更加樂觀。但樂觀不是建立在假設(shè)之上,即每件事情最終都會(huì)完美收官。相反,他認(rèn)為如果我們要收獲果實(shí),就必須采取行動(dòng)。他說,人民和政府必須把注意力轉(zhuǎn)向不久的將來,準(zhǔn)備適當(dāng)?shù)陌踩こ?,深入思考我們究竟想要?jiǎng)?chuàng)造什么樣的世界。

11月份的聯(lián)合國會(huì)議上他可以講些什么呢?

“AI安全研究基金禁止致命的自主武器,倡導(dǎo)擴(kuò)大社會(huì)服務(wù),使每個(gè)人都能獲得AI創(chuàng)造的財(cái)富。”

綜上所述,未來的發(fā)展不可預(yù)見,需要明確的是生于憂患死于安樂,但是只要我們落實(shí)了上述三點(diǎn),人工智能未來的發(fā)展將值得期待。

<來源:THE GUARDIAN;編譯:科技行者>

分享至
0贊

好文章,需要你的鼓勵(lì)

推薦文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-