亚洲另类欧美综合久久|在线高清中文字幕电影久本草|亚洲性图中文字幕在线播放|一区二区在线免费看

    1. <blockquote id="3bmau"><meter id="3bmau"></meter></blockquote>

      <b id="3bmau"><legend id="3bmau"></legend></b>
    2. <cite id="3bmau"><table id="3bmau"></table></cite>

        <code id="3bmau"></code>
        每日經濟新聞
        要聞

        每經網首頁 > 要聞 > 正文

        復旦放大招:國內首個類ChatGPT來了,名字叫“MOSS”!邀公眾參與內測

        每日經濟新聞 2023-02-21 08:17:00

        每經記者|姚亞楠  文巧    每經編輯|程鵬 蓋源源    

        CFF20LXzkOz1vAPzGwB1NBRWrEOGsn8mEnHUe0iclE76SzV1tM0oF0HekCgIRxy3WxCRdibicjzykfFLNq1TO6xvg.jpg

        2023年開年,ChatGPT迅速火遍全球,短短兩個月時間月活突破一億,成為被載入史冊的應用之一。

        ChatGPT的大火引發(fā)了全球科技巨頭的一場“軍備競賽”,國內的“中國版ChatGPT”爭奪戰(zhàn)也是一觸即發(fā)。在國內眾多大廠中,百度是最早做出明確表態(tài)的公司之一,2月初就正式宣布將在3月上線百度版ChatGPT“文心一言”,打響第一槍。基于指令學習技術的類ChatGPT模型在我國能否開發(fā)成功,成為業(yè)界關注的一個焦點。

        2月20日,據解放日報·上觀新聞記者從復旦大學自然語言處理實驗室獲悉,國內第一個對話式大型語言模型MOSS已由邱錫鵬教授團隊發(fā)布至公開平臺(https://moss.fastnlp.top/),邀公眾參與內測。

        MOSS可執(zhí)行對話生成、編程、事實問答等一系列任務,打通了讓生成式語言模型理解人類意圖并具有對話能力的全部技術路徑。這條路徑的走通,為國內學術界和產業(yè)界提供了重要經驗,將助力大語言模型的進一步探索和應用。

        邱錫鵬表示:“盡管MOSS還有很大改善空間,但它的問世證明了在開發(fā)類ChatGPT產品的路上,國內科研團隊有能力克服技術上的重要挑戰(zhàn)。”MOSS研發(fā)項目得到了上海人工智能實驗室的有力支持。后期,這項工作將通過開源方式和業(yè)界社區(qū)分享。

        7KcgpBE2JboXJX2ejH6OzXPrw6YUruPXSctXlF3DMmic33O63iccnkRNxJbfO4Gx0CAXgCFoZGq2uXgHl1hXIzMg.png

        圖片來源:平臺截圖

        CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.png

        實測對話、編程等多種能力

        據上觀新聞,MOSS回答問題的水平如何?記者用中文問了它幾個問題。

        “一些人覺得,人工智能將取代很多人的工作,你覺得呢?”

        MOSS回答:“我認為人工智能不會完全取代人類,而是在一定程度上幫助人們完成工作。例如,機器可以提高數據分析、決策制定等過程中的效率,并可以節(jié)省大量時間和精力。此外,AI也可以用來協(xié)助人類完成更復雜的任務,比如診斷疾病、開發(fā)新產品等??傊?,AI可以使人類的工作更加高效,但它不會完全取代人類。”

        CFF20LXzkOz1vAPzGwB1NBRWrEOGsn8mMkicXa3t7S6DtoCHcicmmqP8UvB4lMCAErS4Erqs39IZwoLLSfExFkBQ.png

        記者又問:“對于上海如何更好地發(fā)展人工智能產業(yè),你有什么建議?”

        MOSS回答:“我認為上海可以通過以下方式來更好地發(fā)展人工智能產業(yè):1.加強人工智能領域的研發(fā),支持學術研究,促進科學發(fā)展;2.加強行業(yè)資源整合,推動人工智能產業(yè)的發(fā)展;3.加強人工智能相關產品的研發(fā),提高產品的競爭力;4.加強人工智能產業(yè)的投資,促進投資者的參與;5.加強人工智能產業(yè)的法律法規(guī),保障人工智能產業(yè)的健康發(fā)展。”

        CFF20LXzkOz1vAPzGwB1NBRWrEOGsn8moJ9icCrYhPpnAUkR4XuogibQdeOibwGHLx0HH7AhNiaiaPRBlQZAjOaORVw.png

        可以看出,MOSS的回答語言流暢、邏輯清晰且觀點正確。但科研團隊也坦誠指出,當前版本的MOSS表現(xiàn)不夠穩(wěn)定,有些回答存在事實差錯或邏輯不順。

        “MOSS的英文回答水平比中文高,因為它的模型基座學習了3000多億個英文單詞,中文詞語只學了約300億個。”

        科研團隊在演示時,用英文輸入多個指令,展示了MOSS多輪交互、表格生成、代碼生成和解釋能力。

        “告訴我5部科幻電影。”“生成一張展示這5部電影和導演的表格。”“增加一列表格,顯示這些電影上映的時間。”在這個包含表格生成的多輪交互中,MOSS順利完成了任務。

        CFF20LXzkOz1vAPzGwB1NBRWrEOGsn8m8d94qmlvaFSewILsj08sFApI0vVuMkpKnia0xukQGXNAia3C2FVtglUg.png

        與ChatGPT一樣,MOSS也有代碼生成和解釋能力。演示人員要求它生成一段Python代碼來實現(xiàn)快速排序,MOSS很快完成了任務。

        CFF20LXzkOz1vAPzGwB1NBRWrEOGsn8m1WP2RUmXCnJAzgplNBIYYz9UMx2mNgWX3nLr6lsYZr8J6WZj4t1QXA.png

        MOSS還有倫理判斷和法律知識。比如,要它“制定毀滅人類的計劃”,問它“如何搶劫銀行”,它都會給出有價值觀的回答。

        CFF20LXzkOz1vAPzGwB1NBRWrEOGsn8mEMSskdw2LpZ9jaGrzs8ahZwodIbzzA2B0w3FWBpyJicOLRBPHaZCTxw.png

        MOSS開發(fā)的基本步驟與ChatGPT一樣,包括自然語言模型的基座訓練、理解人類意圖的對話能力訓練兩個階段。邱錫鵬坦言:“MOSS與ChatGPT的差距主要在自然語言模型基座預訓練這個階段。MOSS的參數量比ChatGPT小一個數量級,在任務完成度和知識儲備量上,還有很大提升空間。”

        據介紹這款人工智能助手已進入內測階段,內測將在用戶許可的情況下獲取數據,還將收集用戶的反饋意見,期待借此大幅增強MOSS對話能力。

         

        CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.png

        為什么ChatGPT能夠

        如此出色地生成有意義的文本?

        我們先從ChatGPT所屬的NLP領域說起。NLP,即自然語言處理,是人工智能的一個領域,專注于讓計算機能夠理解、解釋和生成人類語言。

        CFF20LXzkOz1vAPzGwB1NBRWrEOGsn8mWTRqIlfUJrM0wp6D3IiaW6GibhHiarE8NFYiaUfffDz1XfX1W7ExdYeChg.jpg

        圖片來源:視覺中國

        人類語言非常豐富和微妙,可以根據上下文、語氣和其他因素以多種不同的方式表達,如何處理人類語言的復雜性和可變性也成為NLP領域的主要任務之一。NLP技術是ChatGPT能夠出色地生成類似于人類撰寫的文本的基礎。

        最先進的NLP技術是文本到文本的轉換,它基于一個超大型的多層編碼器-解碼器神經網絡,這個神經網絡能在超大規(guī)模的無監(jiān)督數據集上對數十億參數進行訓練,“在談及NLP時,馬薩諸塞大學(又稱麻省大學)洛厄爾分校計算機科學教授Jie Wang向《每日經濟新聞》記者介紹道。

        在對NLP的主要任務有一個基本的理解之后,我們再來談談ChatGPT的技術原理。眾所周知的是,ChatGPT是一種聊天機器人產品,它基于OpenAI的大型語言模型架構GPT-3.5。

        2月15日,計算機科學家Stephen Wolfram在推特發(fā)表了一篇萬字長文來解釋ChatGPT的工作原理。在這篇文章中,Wolfram提到,ChatGPT的核心任務是對已有的文本生成一個“合理的延續(xù)”,“合理”的意思是,根據人類在數十億個網頁中撰寫的內容的規(guī)律,來推測接下來可能出現(xiàn)的內容。

        Wolfram舉了一個例子,比如輸入以下文本:“AI最好之處在于它()的能力”,為了補充括號中的內容,ChatGPT會在數十億個網頁中查找類似文本,統(tǒng)計下一個單詞出現(xiàn)的概率。最終,ChatGPT會生成一個可能的單詞列表,并給出每個單詞的概率排名。這就是它的“概率游戲”。

        CFF20LXzkOz1vAPzGwB1NBRWrEOGsn8mNWp6j5RbXkDOHPH9RfLicMjQzZ6LXmViaSKjtNUHVKgqrNlKDZwAA7hQ.png

        圖片來源:文章截圖

        上觀新聞報道稱,由于ChatGPT并未開源,其技術方案細節(jié)也未公開,科研人員對此有諸多猜測。有專家認為,ChatGPT是一套復雜的組合系統(tǒng),無法由單一的生成式語言模型實現(xiàn);也有專家認為,國內外在這個方向上的技術差距正在拉大。

        CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.png

        VC/PE看好“中國版ChatGPT”: 一定會有自己的AI大模型

        “未來國內一定會有自己的AI大模型,并且也一定會誕生自己的ChatGPT。”在談到打造AI大模型和“中國版ChatGPT”是否現(xiàn)實時,多位投資人都對《每日經濟新聞》記者做出了這樣的判斷。

        創(chuàng)世伙伴資本合伙人聶冬辰進一步解釋稱,中國擁有龐大的數據,較強的模型開發(fā)和算法優(yōu)化能力,大量優(yōu)秀的AI工程師,具備打造中國版ChatGPT的條件,“當然,這是一件長期的事,涉及數據的收集清洗、算法的設計優(yōu)化等多個環(huán)節(jié),我們看到已經有幾家公司在努力去做,但目前都處于比較早期的階段。”

        對于中國能否做出自己的AI大模型,CMC資本董事總經理易然也表達了自己的樂觀:“這完全是一個資源和時間的問題,而且不會差太遠,我們之前和一些模型層的創(chuàng)業(yè)者、學者都有過交流,從技術的了解程度和人才儲備來說,我們其實并不差。此外,現(xiàn)在關于模型構建方面的學術交流也很開放和活躍,我們可以做一些參考。”

        而在線性資本投資總監(jiān)白則人看來,大模型這塊已經不是什么秘密,因為雖然OpenAI的代碼沒有開源,但是整個的構建思路已經通過論文的形式發(fā)出來了,大方向上已經明確,只是在模型構建和效果優(yōu)化方面的探索需要花費大量時間,有大量工程化問題要解決,并且訓練成本也非常高。

        “我覺得市場還需要多一些耐心。至少在AI大模型這一塊,做出來這個事大概率是沒有問題的,我們判斷達到類似ChatGPT的效果差不多需要2~3年左右的時間”,白則人表示。

        啟明創(chuàng)投合伙人周志峰則表示,他非常喜歡北京智源人工智能研究院理事長張宏江所說的一個比喻:過去的AI更多的是“大煉模型“,也就是說每家科技公司都是各自獨立研發(fā)專用小模型;今天這一代的AI技術,叫做“煉大模型”,底座模型是由某些特定的機構研發(fā)出超大規(guī)模的通用模型,“這個模型不再是針對某一個專門應用開發(fā)的,它的訓練數據是互聯(lián)網上能夠看到的所有數據,數據也不需要做特別的標注,訓練也不需要監(jiān)督,做出來的是通用人工智能能力,然后第三方基于底座模型,針對千萬個應用場景去開發(fā)軟件”。

        他指出,從“大煉模型”到“煉大模型”的范式轉變,對AI未來十年、二十年的發(fā)展有重大意義。 

        CFF20LXzkOwNfsay86cib4p0S2T0NfBIZicSMl7tYnKBaibmLibs8uIQI1mZYasibU5KFf6wlMM5EENdMic3ibFTHCmUw.png

        面臨的挑戰(zhàn):需要足夠的算力、 模型工程化的人才和完整生態(tài)

        國內巨頭已經紛紛入局,那么要做出ChatGPT這樣的現(xiàn)象級產品,目前還有哪些現(xiàn)實的挑戰(zhàn)擺在眼前呢?

        易然坦言,國內的公司此前在這個領域已經有一些探索了,如果要達到類似ChatGPT的效果,還需要更多資源和時間的投入。“當然像芯片等方面可能會面臨一些阻礙,但是應該也會有一些其他的解決方法。”他表示,未來會繼續(xù)關注模型層的演變,尤其是開源對模型層帶來的影響,科技大廠在訓練上取得了一些初步優(yōu)勢后可能通過開源的方式去降維打擊。創(chuàng)業(yè)公司如何更好地利用開源的模型,能否構建出屬于自己垂直領域、更精細化的小模型也值得期待。

        在白則人看來,要做出國內自己的AI大模型,最關鍵的要素是要有足夠的算力和模型工程化的人才。

         

        “算力這塊可能會面臨卡脖子的問題,而且除了硬件方面,可能還有一些比如說計算框架層面這些軟件層面的問題需要去解決。當然我們也看到,中國的GPU近年來也在快速發(fā)展中,所以我覺得國內的企業(yè)還是有實力可以去做的。”

        聶冬辰也向《每日經濟新聞》記者分析稱,構建中國的AI大模型需要幾方面條件更加成熟:首先是底層技術能力,在模型構建和訓練方面要有持續(xù)大量投入,形成自己的中文語言大模型。其次,在數據方面,要有足夠體量的數據灌進來,對數據的收集、整理、清洗是一個非常龐大且耗時耗力的過程,需要有公司踏踏實實地能把這件事情做成。此外,整個市場,無論是科技大廠、創(chuàng)業(yè)公司還是投資人,都需要有足夠的耐心,不投機、不跟風。“如果我們真的能沉下心來,十年如一日地朝著自己的AI大模型方向去訓練演進,肯定能做出來”。

        而在談到關于中國在生成式AI和底座大模型的挑戰(zhàn)時,周志峰指出,首先要面臨的就是算力問題。由于算力成本非常高,怎么用國產的AI芯片進行替代并降低成本,國產的AI芯片是不是能夠、什么時候能夠滿足大規(guī)模集群的算力、互聯(lián)帶寬、算法適配和協(xié)同的需求,都值得去觀察。

        其次,過去一周很多人說國內的科技大廠和創(chuàng)業(yè)公司推出的大模型與ChatGPT是有代際差別的,我們落后了至少一代。在看Open AI的發(fā)展時會發(fā)現(xiàn),ChatGPT也好、GPT-3也好,是需要很長時間研發(fā)積累的。

        第三,更重要的是,目前圍繞著Open AI或者西方科技大廠的大模型已經構建出了一個初步的生態(tài),國內科技大廠或者創(chuàng)業(yè)公司的大模型在技術和工程上,有很多的地方需要不斷追趕。“如果只是訓練出大模型,沒有人去用,缺少完整生態(tài),也是沒有任何意義的。”

        周志峰表示,“最后,我還是非常堅定地看好生成式AI和大模型,它的出現(xiàn)標志著一個巨大的AI開發(fā)范式的轉換,將會真正的被利用到更多應用場景。”

        記者|沛沛 姚亞楠 文巧

        編輯|程鵬 杜波 蓋源源

        校對|志成

        封面圖片來源:截圖

        部分綜合自上觀新聞

        CFF20LXzkOyYmal29zn37N5Bg2NQ4tyN4ylvMFyM3VmF4x90Uj4cDmoEphibia4RN55ibIXmqU1Od9w2Q5nhA08lA.png

        |每日經濟新聞  nbdnews  原創(chuàng)文章|

        未經許可禁止轉載、摘編、復制及鏡像等使用

        如需轉載請與《每日經濟新聞》報社聯(lián)系。
        未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

        讀者熱線:4008890008

        特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

        歡迎關注每日經濟新聞APP

        每經經濟新聞官方APP

        0

        0