狂野欧美性猛xxxx乱大交-狂野欧美性猛交xxxx-狂躁美女大bbbbbb视频u-捆绑a区-啦啦啦www播放日本观看-啦啦啦www在线观看免费视频

二維碼
企資網(wǎng)

掃一掃關(guān)注

當(dāng)前位置: 首頁 » 企資快訊 » 服務(wù) » 正文

語言模型學(xué)會用搜索引擎了?Meta_AI提出A

放大字體  縮小字體 發(fā)布日期:2023-02-23 11:53:05    作者:微生晗瑞    瀏覽次數(shù):39
導(dǎo)讀

選自arXiv作者:Timo Schick等機器之心編譯編輯:袁銘懌、小舟單一的大型語言模型或許無法實現(xiàn) AGI,但如果它學(xué)會使用其他工具呢?在自然語言處理任務(wù)中,大型語言模型在零樣本和少樣本學(xué)習(xí)方面取得了令人印象深刻的

選自arXiv

作者:Timo Schick等

機器之心編譯

編輯:袁銘懌、小舟

單一的大型語言模型或許無法實現(xiàn) AGI,但如果它學(xué)會使用其他工具呢?

在自然語言處理任務(wù)中,大型語言模型在零樣本和少樣本學(xué)習(xí)方面取得了令人印象深刻的結(jié)果。然而,所有模型都存在固有的局限性,往往只能通過進(jìn)一步擴展來部分解決。具體來講,模型的局限性包括無法訪問最新信息、會對事實產(chǎn)生「信息幻覺」、低資源語言理解困難、缺乏進(jìn)行精確計算的數(shù)學(xué)技能等等。

解決這些問題的一種簡單方法就是給模型配備外部工具,如搜索引擎、計算器或日歷。然而,現(xiàn)有方法通常依賴于大量的人工注釋,或?qū)⒐ぞ叩氖褂孟拗圃谔囟ǖ娜蝿?wù)設(shè)置下,使得語言模型與外部工具的結(jié)合使用難以推廣。

為了打破這種瓶頸,近期 meta AI 提出了一種稱為 Toolformer 的新方法,使得語言模型學(xué)會「使用」各種外部工具。

論文地址:https://arxiv.org/pdf/2302.04761v1.pdf

Toolformer 很快就引起了人們的高度關(guān)注,有人認(rèn)為這篇論文解決了目前大型語言模型的許多問題,稱贊道:「這是最近幾周最重要的論文」。

有人指出 Toolformer 以自監(jiān)督學(xué)習(xí)的方式,僅用極少數(shù)樣本就讓大型語言模型學(xué)會使用一些 API 和工具,這是非常靈活且高效的:

甚至有人認(rèn)為 Toolformer 將讓我們離通用人工智能(AGI)更近一步。

Toolformer 之所以能獲得如此高的評價,是因為它滿足了以下的實際需求:

  • 大型語言模型應(yīng)該在自監(jiān)督的方式下學(xué)習(xí)工具的使用,而不需要大量的人工注釋。這一點很關(guān)鍵, 人工注釋的成本很高只是一方面,更重要的是人類認(rèn)為有用的東西可能與模型認(rèn)為有用的東西不同。
  • 語言模型需要更全面地使用不受特定任務(wù)約束的工具。

    這明確打破了前文所述的瓶頸。我們來具體看一下 Toolformer 的方法和實驗結(jié)果。

    方法

    Toolformer 基于帶有 in-context learning(ICL)的大型語言模型從頭開始生成數(shù)據(jù)集(Schick and Schütze, 2021b; Honovich et al., 2022; Wang et al., 2022)的思路:只需給出少數(shù)幾個人類使用 API 的樣本,就可以讓 LM 用潛在的 API 調(diào)用標(biāo)注一個巨大的語言建模數(shù)據(jù)集;然后使用自監(jiān)督損失函數(shù)來確定哪些 API 調(diào)用實際上有助于模型預(yù)測未來的 token;最后根據(jù)對 LM 本身有用的 API 調(diào)用進(jìn)行微調(diào)。

    由于 Toolformer 與所使用的數(shù)據(jù)集無關(guān),因此可以將其用于與模型預(yù)訓(xùn)練完全相同的數(shù)據(jù)集,這確保了模型不會失去任何通用性和語言建模能力。

    具體來說,該研究的目標(biāo)是讓語言模型 M 具備一種能力 —— 通過 API 調(diào)用使用各種工具。這就要求每個 API 的輸入和輸出都可以表征為文本序列。這允許將 API 調(diào)用無縫插入到任何給定文本中,并使用特殊的 token 來標(biāo)記每個此類調(diào)用的開始和結(jié)束。

    該研究將每個 API 調(diào)用表示為一個元組,其中 a_c 是 API 的名稱,i_c 是相應(yīng)的輸入。給定具有相應(yīng)結(jié)果 r 的 API 調(diào)用 c,該研究將不包括和包括其結(jié)果的 API 調(diào)用的線性化序列分別表示為:

    其中,, 和「→」是特殊的 token。如下圖 1 所示,這種方法讓 LM 學(xué)會了控制各種工具,并為自己選擇在何時以及如何使用哪種工具。

    給定數(shù)據(jù)集

    ,該研究首先將這個數(shù)據(jù)集轉(zhuǎn)換成一個增加了 API 調(diào)用的數(shù)據(jù)集 C*。這分三個步驟完成,如下圖 2 所示:首先,該研究利用 M 的 in-context learning 能力對大量潛在的 API 調(diào)用進(jìn)行采樣,然后執(zhí)行這些 API 調(diào)用,再檢查獲得的響應(yīng)是否有助于預(yù)測未來的 token,以用作篩選標(biāo)準(zhǔn)。篩選之后,該研究合并對不同工具的 API 調(diào)用,最終生成數(shù)據(jù)集 C*,并在此數(shù)據(jù)集上微調(diào) M 本身。

    實驗及結(jié)果

    該研究對各種不同的下游任務(wù)進(jìn)行了實驗,結(jié)果表明:基于 6.7B 參數(shù)預(yù)訓(xùn)練 GPT-J 模型的 Toolformer(學(xué)習(xí)過使用各種 API 和工具)在各種任務(wù)上明顯優(yōu)于更大的 GPT-3 模型和其他幾個基線。

    該研究在 LAMA 基準(zhǔn)的 SQuAD、GoogleRE 和 T-REx 子集上對幾種模型進(jìn)行了評估,實驗結(jié)果如下表 3 所示:

    為了測試 Toolformer 的數(shù)學(xué)推理能力,該研究在 ASDiv、SVAMP 和 MAWPS 基準(zhǔn)上進(jìn)行了實驗。實驗表明,Toolformer 在大多情況下都使用了計算器工具,這明顯比 OPT (66B)和 GPT-3 (175B)略勝一籌。

    在問答方面,該研究在 Web Questions、Natural Questions 和 TriviaQA 三個問答數(shù)據(jù)集上進(jìn)行了實驗。Toolformer 明顯優(yōu)于大小相同的基線模型,但遜于 GPT-3 (175B)。

    在跨語言任務(wù)方面,該研究將 Toolformer 和 MLQA 上所有的基線模型進(jìn)行了比較,結(jié)果如下表 6 所示:

    為了研究日歷 API 的效用,該研究在 TEMPLAMA 和一個名為 DATESET 的新數(shù)據(jù)集上對幾種模型進(jìn)行了實驗。Toolformer 優(yōu)于所有基線,但沒有使用 TEMPLAMA 日歷工具。

    除了驗證各種下游任務(wù)的性能改進(jìn)之外,該研究還希望確保 Toolformer 的語言建模性能不會因為 API 調(diào)用的微調(diào)而降低。為此,該研究在兩個語言建模數(shù)據(jù)集上進(jìn)行實驗來評估,模型的困惑度如下表 8 所示。

    對于沒有任何 API 調(diào)用的語言建模來說,添加 API 調(diào)用無需花費任何成本。

    最后,研究人員分析了隨著語言模型規(guī)模的擴大,向外部工具尋求幫助的能力對模型性能的影響,分析結(jié)果如下圖 4 所示

    感興趣的讀者可以閱讀論文原文,了解更多研究細(xì)節(jié)。

  •  
    (文/微生晗瑞)
    免責(zé)聲明
    本文僅代表作發(fā)布者:微生晗瑞個人觀點,本站未對其內(nèi)容進(jìn)行核實,請讀者僅做參考,如若文中涉及有違公德、觸犯法律的內(nèi)容,一經(jīng)發(fā)現(xiàn),立即刪除,需自行承擔(dān)相應(yīng)責(zé)任。涉及到版權(quán)或其他問題,請及時聯(lián)系我們刪除處理郵件:weilaitui@qq.com。
     

    Copyright ? 2016 - 2025 - 企資網(wǎng) 48903.COM All Rights Reserved 粵公網(wǎng)安備 44030702000589號

    粵ICP備16078936號

    微信

    關(guān)注
    微信

    微信二維碼

    WAP二維碼

    客服

    聯(lián)系
    客服

    聯(lián)系客服:

    在線QQ: 303377504

    客服電話: 020-82301567

    E_mail郵箱: weilaitui@qq.com

    微信公眾號: weishitui

    客服001 客服002 客服003

    工作時間:

    周一至周五: 09:00 - 18:00

    反饋

    用戶
    反饋

    主站蜘蛛池模板: 99热国产这里只有精品99 | 久草视频网 | 农村寡妇一级毛片免费看视频 | 国产激情一区二区三区 | 青青草99热这里都是精品 | 日韩一区二区三区免费 | 久久久精品久久久久久久久久久 | 99j久久精品久久久久久 | 午夜成人在线视频 | 国产精品久久毛片蜜月 | 大陆一级毛片免费视频观看i | 久久精品国产久精国产 | 欧美成人在线视频 | 狠狠色伊人亚洲综合成人 | 国产亚洲一区二区三区在线 | xxx中国www免费 | 九九精品久久久久久久久 | 国产视频手机在线观看 | 精品国产不卡一区二区三区 | 欧美v在线| 尤物免费视频 | 亚洲精品久久久久中文字幕一区 | 国产欧美日韩成人 | chinese国产在线视频 | 欧美亚洲免费 | 久久成人精品 | 国产精品午夜在线观看 | 国产日产精品久久久久快鸭 | 欧美日韩中文字幕一区二区高清 | 夜夜女人国产香蕉久久精品 | 色偷偷91综合久久噜噜 | 精品国产国产综合精品 | 久草在线国产视频 | 免费看欧美一级特黄a毛片 免费看欧美一级特黄α大片 | 亚洲国产成人精品一区二区三区 | 日韩美毛片 | 天天干狠狠| 国产成人啪精品视频免费网 | 再猛点深使劲爽日本免费视频 | 韩国爱情片免费大全 | 久久成人国产精品免费 |