av天堂久久天堂色综合,最近中文字幕mv免费高清在线,在线a级毛片免费视频,av动漫,中文字幕精品亚洲无线码一区

微信掃一掃,關(guān)注公眾號

  • 科技行者

  • 算力行者

見證連接與計算的「力量」

首頁 斯坦福大學新發(fā)現(xiàn):大語言模型居然能自己學會當"翻譯官"

斯坦福大學新發(fā)現(xiàn):大語言模型居然能自己學會當"翻譯官"

2025-08-21 12:25
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-08-21 12:25 ? 科技行者

在人工智能快速發(fā)展的今天,一個令人驚訝的發(fā)現(xiàn)正在改變我們對機器學習能力的認知。斯坦福大學的研究團隊發(fā)表了一項突破性研究,揭示了大型語言模型在處理多語言任務時展現(xiàn)出的驚人能力。這項由斯坦福大學Sewon Min、Xinxi Lyu、Ari Holtzman、Mikel Artetxe、Mike Lewis、Hannaneh Hajishirzi和Luke Zettlemoyer共同完成的研究,發(fā)表于2022年的機器學習頂級會議,論文詳細信息可通過arXiv平臺獲取。

當我們談論人工智能的語言能力時,大多數(shù)人可能會想到聊天機器人或者翻譯軟件。但這項研究發(fā)現(xiàn)的現(xiàn)象遠比我們想象的更加神奇。研究團隊發(fā)現(xiàn),即使是那些主要用英語訓練的大型語言模型,竟然能夠在完全沒有明確教學的情況下,自發(fā)地學會處理其他語言的任務。這就像一個人通過閱讀大量英文書籍,竟然自然而然地學會了理解和使用法語、德語甚至中文一樣不可思議。

這個發(fā)現(xiàn)的重要性在于,它挑戰(zhàn)了我們對機器學習的傳統(tǒng)理解。通常情況下,我們認為人工智能系統(tǒng)只能做它們被明確訓練去做的事情。如果你想讓一個模型翻譯中文,你就必須用大量的中英文對照材料來訓練它。但現(xiàn)在的情況完全不同了,這些模型似乎具備了某種"舉一反三"的能力,能夠?qū)⒃谝环N語言中學到的知識自動遷移到其他語言上。

研究團隊的發(fā)現(xiàn)對普通人意味著什么呢?首先,這可能會大大降低開發(fā)多語言AI應用的成本和難度。過去,如果一家公司想要開發(fā)支持多種語言的智能客服系統(tǒng),需要為每種語言分別收集訓練數(shù)據(jù),這個過程既昂貴又耗時。但現(xiàn)在,他們可能只需要一個主要用英語訓練的模型,就能獲得多語言支持能力。

其次,這個發(fā)現(xiàn)對于資源較少的語言群體來說是一個重大福音。世界上有數(shù)千種語言,但其中很多語言缺乏足夠的數(shù)字化文本資源來訓練專門的AI模型。這項研究表明,這些語言的使用者可能仍然能夠享受到AI技術(shù)帶來的便利,因為模型可以從資源豐富的語言中學習,然后將這種能力遷移到資源較少的語言上。

一、神奇的跨語言學習現(xiàn)象

要理解這項研究的核心發(fā)現(xiàn),我們可以把大型語言模型想象成一個特別聰明的學生。這個學生主要通過閱讀英文書籍來學習,但在學習過程中,他偶爾也會接觸到一些其他語言的文本。令人驚訝的是,當老師用英語教會他如何分析文本、回答問題或者總結(jié)內(nèi)容之后,這個學生竟然能夠?qū)⑦@些技能自動應用到法語、德語、中文等其他語言上,即使他從來沒有被明確教過如何處理這些語言。

研究團隊通過大量實驗證實了這種現(xiàn)象的普遍性。他們選擇了多個不同的任務來測試模型的跨語言能力,包括文本分類、問答系統(tǒng)、文本摘要等。結(jié)果發(fā)現(xiàn),無論是哪種類型的任務,這些主要用英語訓練的模型都能在其他語言上表現(xiàn)出相當不錯的性能。

更有趣的是,研究人員發(fā)現(xiàn)這種跨語言能力的強弱與模型的規(guī)模有直接關(guān)系。小型模型就像剛開始學習的學生,他們的跨語言遷移能力相對較弱。但隨著模型規(guī)模的增大,就像學生的知識面越來越廣、理解能力越來越強一樣,他們的跨語言能力也會顯著提升。最大的模型表現(xiàn)得就像是經(jīng)驗豐富的語言專家,能夠輕松地在不同語言之間切換。

這種現(xiàn)象背后的機制非常引人深思。研究團隊認為,當模型在學習英語文本時,它實際上在學習語言的共同結(jié)構(gòu)和規(guī)律。語言雖然表面形式不同,但在深層結(jié)構(gòu)上往往有許多相似之處。比如,無論是英語還是中文,都有主語、謂語、賓語的概念,都有表達時間、地點、原因等語義關(guān)系的方式。模型似乎能夠自動發(fā)現(xiàn)這些共同的模式,然后將這些模式應用到新的語言上。

二、實驗設計的巧妙之處

研究團隊為了驗證這個發(fā)現(xiàn),設計了一系列精巧的實驗,這些實驗就像精心設計的測驗,用來檢驗學生是否真的掌握了舉一反三的能力。他們選擇了多個不同類型的任務,每個任務都像是對模型不同能力的考查。

在文本分類任務中,研究人員讓模型學會如何判斷英文評論是正面還是負面的。這就像教一個學生如何從英文影評中判斷評論者是否喜歡這部電影。然后,他們給模型展示法語、德語、西班牙語等其他語言的評論,看看模型是否能夠在沒有額外訓練的情況下,正確判斷這些評論的情感傾向。結(jié)果令人驚喜,模型表現(xiàn)得相當不錯,就像那個學生真的學會了跨語言理解情感表達的能力。

在問答任務中,實驗變得更加有趣。研究團隊首先用英語訓練模型回答各種問題,比如"美國的首都是哪里?"或者"水的沸點是多少度?"。然后,他們用其他語言提出類似的問題,看看模型是否能夠理解并給出正確答案。這個過程就像測試一個學生是否能夠?qū)⒃谟⒄Z課上學到的知識,運用到法語或德語的考試中。

特別有意思的是文本摘要任務。研究人員教會模型如何為英文文章寫摘要,然后給它提供其他語言的文章,看它是否能夠生成合適的摘要。這項測試特別具有挑戰(zhàn)性,因為摘要不僅需要理解文章內(nèi)容,還需要具備用簡潔語言重新組織信息的能力。

為了確保實驗結(jié)果的可靠性,研究團隊還設置了多個對照組。他們比較了不同規(guī)模的模型,從小型模型到超大型模型,觀察跨語言能力如何隨著模型規(guī)模的變化而變化。他們還測試了不同語言之間的差異,發(fā)現(xiàn)與英語越相似的語言,模型的跨語言遷移效果越好,這符合我們的直覺預期。

實驗中最巧妙的部分是對"零樣本學習"能力的測試。零樣本學習就像讓一個從來沒有見過大象的人,僅憑對其他動物的了解來識別大象。研究團隊發(fā)現(xiàn),即使模型在某種特定語言上完全沒有接受過相關(guān)任務的訓練,它仍然能夠在這種語言上完成任務,雖然性能可能不如在英語上那么好,但依然遠超隨機猜測的水平。

三、語言相似性的影響規(guī)律

研究過程中,團隊發(fā)現(xiàn)了一個特別有趣的現(xiàn)象,就像發(fā)現(xiàn)了語言之間的"親戚關(guān)系"如何影響學習效果。當測試不同語言時,研究人員注意到模型在某些語言上的表現(xiàn)明顯好于其他語言,這種差異并非隨機,而是遵循著語言學的基本規(guī)律。

以英語為主要訓練語言的模型,在處理德語、荷蘭語、法語等歐洲語言時,表現(xiàn)往往比處理中文、阿拉伯語、日語等差異較大的語言要好得多。這種現(xiàn)象就像一個習慣了拉丁字母的人,學習使用相同字母系統(tǒng)的新語言會比學習漢字或阿拉伯文字要容易一些。但令人驚訝的是,即使是在那些與英語差異很大的語言上,模型依然展現(xiàn)出了相當程度的理解能力。

研究團隊通過詳細分析發(fā)現(xiàn),語言之間的相似性可以從多個維度來衡量。首先是文字系統(tǒng)的相似性,使用相同或相似字母系統(tǒng)的語言之間,模型的遷移效果更好。其次是語法結(jié)構(gòu)的相似性,比如語序、時態(tài)表達方式等語法特征越相近,跨語言遷移就越成功。最后是詞匯的相似性,如果兩種語言中有較多相似的詞匯或借詞,模型的表現(xiàn)也會更好。

更深入的分析揭示了模型學習策略的精妙之處。研究人員發(fā)現(xiàn),模型似乎能夠自動識別不同語言中的相似模式,并建立起某種內(nèi)在的"翻譯映射"。這種映射不是簡單的詞對詞翻譯,而是在更抽象的語義層面建立聯(lián)系。比如,模型能夠理解英語中的"happy"和法語中的"heureux"表達的是相同的概念,即使這兩個詞在表面形式上完全不同。

研究還發(fā)現(xiàn)了一個有趣的"語言簇"現(xiàn)象。屬于同一語系的語言會形成某種性能簇,模型在這些語言之間的遷移效果會相互促進。比如,如果模型在德語上的表現(xiàn)提升了,它在荷蘭語和瑞典語上的表現(xiàn)往往也會相應提升。這表明模型內(nèi)部可能形成了某種語系級別的表示,能夠捕捉到語言之間的系統(tǒng)性關(guān)聯(lián)。

四、模型規(guī)模與能力的關(guān)系

在這項研究中,最令人印象深刻的發(fā)現(xiàn)之一就是模型規(guī)模與跨語言能力之間存在著強烈的正相關(guān)關(guān)系。這種關(guān)系就像學生的知識儲備與理解能力的關(guān)系一樣,知識越豐富,舉一反三的能力往往也越強。

研究團隊測試了從幾百萬參數(shù)到幾千億參數(shù)的各種規(guī)模模型,發(fā)現(xiàn)了一個清晰的趨勢。小規(guī)模的模型就像剛開始學習的新手,它們的跨語言能力相當有限,往往只能處理與訓練語言非常相似的任務。但隨著模型規(guī)模的增加,就像學生的知識面越來越廣,模型的跨語言遷移能力也會顯著提升。

最引人注目的是,當模型達到一定規(guī)模閾值后,跨語言能力會出現(xiàn)突然的飛躍,這種現(xiàn)象被研究人員稱為"涌現(xiàn)現(xiàn)象"。這就像學生在學習過程中突然開竅一樣,原本需要死記硬背的知識點忽然變得融會貫通。在模型的語言能力上,這種涌現(xiàn)表現(xiàn)為原本幾乎無法處理的非英語任務,突然變得可以勝任。

具體來說,研究人員觀察到幾個關(guān)鍵的規(guī)模節(jié)點。當模型參數(shù)量達到幾十億時,開始展現(xiàn)出基礎的跨語言理解能力。當參數(shù)量增加到幾百億時,模型在多數(shù)語言上都能達到實用的性能水平。而當模型規(guī)模達到千億級別時,其跨語言能力已經(jīng)可以與專門訓練的多語言模型相媲美。

這種規(guī)模效應背后的原理非常有趣。研究團隊認為,大型模型擁有更強的表示能力,能夠?qū)W習到更加抽象和通用的語言模式。小模型可能只能記住具體的詞匯和短語,而大模型能夠理解更深層的語法規(guī)則和語義關(guān)系。這種抽象能力使得大模型能夠?qū)⒃谝环N語言中學到的知識,更有效地遷移到其他語言上。

同時,研究還發(fā)現(xiàn)模型規(guī)模的增加不僅提升了跨語言能力的平均水平,還減少了不同語言之間的性能差異。這意味著大模型對各種語言的處理能力更加均衡,不會因為某種語言與訓練語言的差異較大就表現(xiàn)很差。

五、實際應用的廣闊前景

這項研究的發(fā)現(xiàn)為人工智能的實際應用開辟了全新的可能性,其影響遠遠超出了學術(shù)研究的范疇。對于普通用戶和企業(yè)來說,這意味著獲得多語言AI服務的門檻將大大降低,成本也會顯著減少。

在全球化的商業(yè)環(huán)境中,這個發(fā)現(xiàn)具有巨大的商業(yè)價值。過去,一家想要拓展國際市場的公司需要為每個目標市場開發(fā)專門的AI系統(tǒng),這個過程既昂貴又耗時。現(xiàn)在,公司可能只需要開發(fā)一個高質(zhì)量的英語AI系統(tǒng),就能自動獲得多語言支持能力。這對于中小企業(yè)特別有意義,因為它們現(xiàn)在可以以相對較低的成本進入全球市場。

在教育領域,這種跨語言能力為個性化學習提供了新的可能性。一個智能教學系統(tǒng)可以用任何語言與學生交流,提供定制化的學習內(nèi)容和反饋。對于學習第二語言的學生來說,這種系統(tǒng)可以在他們的母語和目標語言之間建立橋梁,幫助他們更好地理解和掌握新語言。

醫(yī)療健康領域也將從這項技術(shù)中受益匪淺。醫(yī)療AI助手可以用患者的母語提供健康咨詢和醫(yī)療信息,這對于改善全球醫(yī)療服務的可及性具有重要意義。特別是在醫(yī)療資源稀缺的地區(qū),這種技術(shù)可以幫助緩解語言障礙帶來的醫(yī)療服務不平等問題。

在內(nèi)容創(chuàng)作和翻譯行業(yè),這種技術(shù)可能會引發(fā)根本性的變革。內(nèi)容創(chuàng)作者可以用自己最熟悉的語言創(chuàng)作,然后依靠AI系統(tǒng)將內(nèi)容自動適配到其他語言,而不僅僅是簡單的翻譯。這種適配會考慮到不同文化背景的讀者習慣,提供更加本地化的內(nèi)容體驗。

客戶服務行業(yè)也將迎來重大變化。智能客服系統(tǒng)可以無縫地支持多種語言,為全球用戶提供一致的服務質(zhì)量。這不僅提高了用戶體驗,也大大降低了企業(yè)的運營成本。

然而,研究團隊也指出了這種技術(shù)在實際應用中可能面臨的挑戰(zhàn)。首先是質(zhì)量控制問題,雖然模型展現(xiàn)出了跨語言能力,但在某些語言或特定任務上的表現(xiàn)可能仍然不夠理想。其次是文化適應性問題,語言不僅僅是詞匯和語法的組合,還承載著深厚的文化內(nèi)涵,模型是否能夠準確理解和表達這些文化差異還有待進一步研究。

六、技術(shù)原理的深度解析

要真正理解這種跨語言能力背后的技術(shù)原理,我們需要深入探討大型語言模型的內(nèi)部工作機制。這個過程就像探索大腦如何處理不同語言一樣復雜而迷人。

研究團隊通過多種分析方法揭示了模型內(nèi)部的語言表示機制。他們發(fā)現(xiàn),模型在處理不同語言時,會在其內(nèi)部形成某種"通用語義空間"。這個空間就像一個翻譯中心,不同語言的相同概念會被映射到這個空間中的相近位置。比如,英語的"dog"、法語的"chien"、德語的"hund"和中文的"狗",雖然表面形式完全不同,但在模型的內(nèi)部表示中會聚集在相近的區(qū)域。

這種通用語義空間的形成過程非常有趣。在訓練過程中,模型接觸到大量不同語言的文本,雖然英語文本占主導地位,但其他語言的文本也會為模型提供重要信息。模型逐漸學會了識別不同語言中表達相同概念的模式,并將這些模式統(tǒng)一到內(nèi)部表示中。

更深入的分析顯示,這種跨語言表示是分層次的。在模型的底層,不同語言的表示可能差異較大,主要關(guān)注詞匯和語法的表面特征。但隨著處理層次的加深,不同語言的表示逐漸趨于一致,最終在高層形成語言無關(guān)的語義表示。這種分層處理機制使得模型既能處理語言特定的細節(jié),又能捕捉跨語言的共同規(guī)律。

研究人員還發(fā)現(xiàn)了"對齊學習"的現(xiàn)象。當模型在英語上學習某個任務時,它實際上在學習一種通用的任務解決策略。這種策略不依賴于特定的語言特征,而是基于更抽象的語義和邏輯關(guān)系。因此,當面對其他語言的相同任務時,模型可以直接應用這種已學會的策略。

注意力機制在跨語言遷移中發(fā)揮了關(guān)鍵作用。研究團隊通過分析模型的注意力權(quán)重發(fā)現(xiàn),模型能夠自動識別不同語言中的對應元素,并建立起跨語言的關(guān)聯(lián)。這種關(guān)聯(lián)不僅存在于詞匯層面,還存在于短語、句子甚至段落層面。

另一個重要發(fā)現(xiàn)是"語言中性特征"的存在。模型在學習過程中會自動提取出與語言無關(guān)的特征,比如邏輯關(guān)系、時間序列、因果關(guān)系等。這些特征在所有語言中都是相似的,因此可以直接遷移使用。

七、面臨的挑戰(zhàn)與局限性

盡管這項研究揭示了令人興奮的跨語言能力,但研究團隊也誠實地指出了當前技術(shù)面臨的各種挑戰(zhàn)和局限性。這些問題的存在提醒我們,雖然技術(shù)取得了重大突破,但距離完美的多語言AI還有相當?shù)木嚯x。

首先是性能不均衡的問題。雖然模型在多種語言上都展現(xiàn)出了一定的能力,但不同語言之間的性能差異仍然顯著。對于那些與英語差異較大的語言,比如中文、阿拉伯語、芬蘭語等,模型的表現(xiàn)往往不如在相似語言上那么理想。這種差異可能會在實際應用中造成不公平的結(jié)果,某些語言的使用者可能無法享受到同等質(zhì)量的AI服務。

文化適應性是另一個重要挑戰(zhàn)。語言不僅僅是交流的工具,更是文化的載體。不同文化背景下,相同的概念可能有不同的內(nèi)涵和表達方式。比如,"尊重"這個概念在不同文化中的具體表現(xiàn)可能截然不同。目前的模型在處理這種文化差異時還顯得力不從心,可能會產(chǎn)生文化上不合適或不敏感的輸出。

數(shù)據(jù)偏見問題也不容忽視。由于訓練數(shù)據(jù)主要來源于互聯(lián)網(wǎng),而互聯(lián)網(wǎng)上的內(nèi)容在語言分布、話題覆蓋、觀點立場等方面都存在明顯偏見。這些偏見會被模型學習并在跨語言遷移中傳播,可能導致某些語言或文化群體受到不公平對待。

技術(shù)穩(wěn)定性是實際應用中的另一個關(guān)注點。雖然模型在大多數(shù)情況下表現(xiàn)良好,但在處理某些特定類型的輸入或邊緣情況時,可能會出現(xiàn)意想不到的錯誤。這種不可預測性在某些關(guān)鍵應用場景中可能是不可接受的。

計算資源的需求也是一個現(xiàn)實挑戰(zhàn)。研究表明,更大規(guī)模的模型具有更強的跨語言能力,但這些模型也需要巨大的計算資源來訓練和運行。這可能會限制技術(shù)的普及,特別是在資源有限的地區(qū)或組織中。

評估標準的缺失是另一個需要解決的問題。目前缺乏統(tǒng)一、全面的評估體系來衡量模型的跨語言能力。不同的研究可能使用不同的評估指標和測試數(shù)據(jù),這使得比較不同模型的性能變得困難。

研究團隊還指出了"偽相關(guān)性"的風險。模型可能學會了某些表面上看起來正確,但實際上基于錯誤關(guān)聯(lián)的模式。這種偽相關(guān)性在跨語言遷移中可能被放大,導致系統(tǒng)性錯誤。

八、未來發(fā)展的可能方向

基于這項研究的發(fā)現(xiàn),研究團隊和其他學者已經(jīng)開始探索多個未來發(fā)展方向,這些方向可能會進一步推動跨語言AI技術(shù)的發(fā)展和完善。

提升低資源語言的支持能力是一個重要方向。目前的模型在處理資源豐富的語言時表現(xiàn)較好,但對于那些缺乏大量數(shù)字化文本的語言,性能仍有待提升。未來的研究可能會開發(fā)專門的技術(shù)來增強這些語言的表示學習,比如利用語言間的系譜關(guān)系、借助跨語言詞典、或者使用少樣本學習技術(shù)。

文化感知性的增強是另一個重要研究方向。未來的模型需要不僅能夠處理不同的語言,還要能夠理解和適應不同的文化背景。這可能需要在訓練過程中引入更多的文化知識,或者開發(fā)專門的文化適應模塊。

個性化和定制化也是一個有前景的方向。不同的用戶和應用場景對跨語言能力的需求可能不同。未來的系統(tǒng)可能會允許用戶根據(jù)自己的具體需求來定制模型的行為,比如選擇特定的語言對、調(diào)整翻譯風格、或者優(yōu)化特定任務的性能。

多模態(tài)跨語言學習是一個特別有趣的新興方向。除了文本,未來的模型可能還需要處理圖像、音頻、視頻等多種模態(tài)的跨語言信息。這種能力對于構(gòu)建真正智能的多語言交互系統(tǒng)至關(guān)重要。

實時適應和持續(xù)學習也是重要的發(fā)展方向。語言是不斷演化的,新詞匯、新表達方式層出不窮。未來的模型需要能夠?qū)崟r學習和適應這些變化,而不需要重新進行大規(guī)模的訓練。

安全性和可靠性的提升是實際應用的重要要求。未來的研究需要開發(fā)更好的方法來檢測和預防模型的錯誤輸出,特別是在跨語言場景中可能出現(xiàn)的各種問題。

效率優(yōu)化也是一個持續(xù)的研究重點。雖然大模型具有更強的跨語言能力,但如何在保持性能的同時降低計算成本,使技術(shù)更加普及,仍然是一個重要挑戰(zhàn)。

最后,標準化和評估體系的建立對于整個領域的健康發(fā)展至關(guān)重要。需要建立統(tǒng)一的評估基準、測試數(shù)據(jù)集和性能指標,以便更好地比較不同方法的效果,推動技術(shù)的持續(xù)進步。

說到底,斯坦福大學的這項研究為我們打開了一扇通往多語言AI未來的大門。它告訴我們,人工智能的語言能力可能比我們想象的更加神奇和強大。雖然還存在各種挑戰(zhàn)和局限性,但這種跨語言學習的能力為解決全球交流障礙、促進文化交流、推動技術(shù)普及提供了新的希望。隨著技術(shù)的不斷發(fā)展和完善,我們有理由相信,一個真正無語言障礙的AI時代正在向我們走來。這不僅會改變我們與機器交互的方式,更可能深刻影響人類社會的交流模式和文化融合進程。對于每個普通人來說,這意味著我們將能夠更容易地跨越語言邊界,享受到全球化帶來的便利和機遇。

Q&A

Q1:大語言模型的跨語言能力是如何工作的?

A:大語言模型通過在訓練過程中形成"通用語義空間"來實現(xiàn)跨語言能力。就像一個翻譯中心,不同語言的相同概念會被映射到這個空間中的相近位置。模型學會了識別不同語言中表達相同概念的模式,并將這些模式統(tǒng)一到內(nèi)部表示中,從而能夠?qū)⒃谟⒄Z上學到的技能自動遷移到其他語言。

Q2:為什么模型規(guī)模越大,跨語言能力越強?

A:大型模型擁有更強的表示能力,能夠?qū)W習到更加抽象和通用的語言模式。小模型可能只能記住具體的詞匯和短語,而大模型能夠理解更深層的語法規(guī)則和語義關(guān)系。當模型達到一定規(guī)模閾值后,還會出現(xiàn)"涌現(xiàn)現(xiàn)象",跨語言能力會突然飛躍,原本無法處理的非英語任務突然變得可以勝任。

Q3:這種跨語言技術(shù)在實際應用中有什么局限性?

A:主要局限性包括性能不均衡(不同語言間表現(xiàn)差異顯著)、文化適應性不足(難以處理不同文化背景的語言差異)、數(shù)據(jù)偏見問題(訓練數(shù)據(jù)的偏見會在跨語言遷移中傳播)、以及計算資源需求巨大等。這些問題可能會在實際應用中造成服務質(zhì)量不平等或文化敏感性問題。

分享至
0贊

好文章,需要你的鼓勵

推薦文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-