在线不卡日本ⅴ一区v二区_精品一区二区中文字幕_天堂v在线视频_亚洲五月天婷婷中文网站

  • <menu id="lky3g"></menu>
  • <style id="lky3g"></style>
    <pre id="lky3g"><tt id="lky3g"></tt></pre>

    LLaMA 2:最新開源 GPT 模型的功能和演示教程

    極客號(Xqh8.com) 7月20日 消息:本文將為大家介紹最新發(fā)布的 GPT 模型 LLaMA 2 的新功能和更新內(nèi)容。LLaMA 2 在原始模型基礎上進行了改進,包括使用 40% 更大的數(shù)據(jù)集、經(jīng)過強化學習和人類反饋調(diào)優(yōu)的聊天變體以及可擴展到 700 億參數(shù)的模型。文章還會為大家展示如何在 Paperspace Gradient 筆記本中運行 LLaMA 2 模型的演示。

    型號概覽

    讓我們首先概述 LLaMA 2 中可用的新技術(shù)。我們將首先回顧原始的 LLaMA 架構(gòu),該架構(gòu)在新版本中沒有變化,然后檢查更新的訓練數(shù)據(jù)、新的聊天變體及其 RHLF 調(diào)整方法,以及與其他開源和閉源模型相比,完全擴展的 70B 參數(shù)模型的功能。

    LLaMA 2:最新開源 GPT 模型的功能和演示教程

    LLaMA 2 模型架構(gòu)

    LLaMA 和 LLaMA 2 模型是基于原始 Transformers 架構(gòu)的生成式預訓練 Transformer 模型。我們在最初的 LLaMA 文章中詳細概述了 LLaMA 模型與之前的 GPT 架構(gòu)迭代的區(qū)別,但總結(jié)如下:

    LLaMA 模型具有類似于預歸一化的 GPT-3 功能。這有效地提高了訓練的穩(wěn)定性。在實踐中,他們使用 RMS Norm 歸一化函數(shù)來歸一化每個變壓器子層的輸入而不是輸出。這重新調(diào)整了不變性屬性和隱式學習率適應能力LLaMA 使用 SwiGLU 激活函數(shù)而不是 ReLU 非線性激活函數(shù),顯著提高了訓練性能借鑒 GPT-Neo-X 項目,LLaMA 在網(wǎng)絡的每一層都具有旋轉(zhuǎn)位置嵌入 (RoPE)。

    正如 LLaMA 2 論文附錄中所報告的,與原始模型的主要架構(gòu)差異是增加了上下文長度和分組查詢注意力 (GQA)。上下文窗口的大小增加了一倍,從 2048 個標記增加到 4096 個標記。更長的處理窗口使模型能夠產(chǎn)生和處理更多的信息。值得注意的是,這有助于理解長文檔、聊天歷史和摘要任務。此外,他們還更新了注意力機制來處理上下文數(shù)據(jù)的規(guī)模。他們比較了原始的多頭注意力基線、具有單個鍵值投影的多查詢格式以及具有 8 個鍵值投影的分組查詢注意力格式,以處理原始 MHA 格式的成本,其復雜性顯著增加增加上下文窗口或批量大小。

    LLaMA 2:最新開源 GPT 模型的功能和演示教程

    總之,這些更新使 LLaMA 在各種不同任務中的表現(xiàn)明顯優(yōu)于許多競爭模型。從 LLaMA 2 項目頁面提供的上圖可以看出,與 Falcon 和 MPT 等專用和替代 GPT 模型相比,LLaMA 的性能非常好或幾乎一樣好。我們期待在未來幾個月內(nèi)進行研究,展示它與 GPT-4 和 Bard 等大型閉源模型的比較。

    更新的訓練集

    LLaMA 2 具有更新和擴展的訓練集。據(jù)稱,該數(shù)據(jù)集比用于訓練原始 LLaMA 模型的數(shù)據(jù)大 40%。即使對于最小的 LLaMA 2 模型,這也具有良好的意義。此外,這些數(shù)據(jù)經(jīng)過明確篩選,不包括來自顯然包含大量私人和個人信息的網(wǎng)站的數(shù)據(jù)。

    他們總共訓練了 2 萬億個代幣的數(shù)據(jù)。他們發(fā)現(xiàn)這個數(shù)量在成本效益權(quán)衡方面效果最好,并對最真實的來源進行了上采樣,以減少錯誤信息和幻覺的影響。

    聊天變體

    Chat 變體 LLaMA 2-Chat 是經(jīng)過數(shù)月的對齊技術(shù)研究而創(chuàng)建的。通過監(jiān)督微調(diào)、RHLF 和迭代微調(diào)的融合,與原始模型相比,Chat 變體在 LLaMA 模型的人類交互性方面向前邁出了實質(zhì)性一步。

    使用與原始 LLaMA 模型相同的數(shù)據(jù)和方法進行監(jiān)督微調(diào) 。這是使用“有用”和“安全”響應注釋來完成的,當模型意識到或不知道正確的響應時,它們會引導模型做出正確的響應類型。

    LLaMA 2 使用的 RHLF 方法涉及收集大量人類偏好數(shù)據(jù),以供研究人員使用注釋器團隊收集獎勵方法。這些注釋者將評估兩個輸出的質(zhì)量,并對這兩個輸出進行相互比較的定性評估。這使得模型能夠獎勵首選的答案,并對其賦予更大的權(quán)重,并對收到的不良答案進行相反的操作。

    最后,隨著他們收集更多數(shù)據(jù),他們通過使用改進的數(shù)據(jù)訓練模型的連續(xù)版本,迭代改進了之前的 RHLF 結(jié)果。

    有關這些模型的聊天變體的更多詳細信息,請務必查看論文。

    可擴展至 700 億個參數(shù)

    LLaMA 2:最新開源 GPT 模型的功能和演示教程

    最大的 LLaMA 2 模型有 700 億個參數(shù)。參數(shù)計數(shù)是指權(quán)重的數(shù)量,如 float32 變量中的權(quán)重數(shù)量,它被調(diào)整以對應于整個語料庫中使用的文本變量的數(shù)量。因此,相應的參數(shù)計數(shù)與模型的能力和大小直接相關。新的 70B 模型比 LLaMA 1 發(fā)布的最大 65B 模型更大。從上表中我們可以看到,即使與 ChatGPT (GPT3.5) 等閉源模型相比,放大的 70B 模型也表現(xiàn)良好。它還有很長的路要走,以匹配 GPT-4,但來自開源社區(qū)的額外指令調(diào)整和 RHLF 項目可能會進一步縮小差距。

    考慮到 ChatGPT 的訓練規(guī)模為 1750 億個參數(shù),這使得 LLaMA 的成就更加令人印象深刻。

    演示

    現(xiàn)在讓我們跳進漸變筆記本來看看如何在我們自己的項目中開始使用 LLaMA 2。運行此程序所需的只是一個 Gradient 帳戶,這樣我們就可以訪問免費 GPU 產(chǎn)品。這樣,如果需要,我們甚至可以擴展到在 A100 GPU 上使用 70B 模型。

    我們將使用在基于 Gradio 的 Oogabooga 文本生成 Web UI 上運行的 GPTQ 版本來運行模型。該演示將展示如何設置筆記本、下載模型以及運行推理。

    (點此可在免費 GPU 驅(qū)動的 Gradient Notebook 中打開此項目)

    設置

    我們將從設置環(huán)境開始。我們已經(jīng)啟動了我們的筆記本,并以 WebUI 存儲庫作為根目錄。首先,讓我們打開llama.ipynb筆記本文件。這包含我們在 Web UI 中運行模型所需的一切。

    我們首先使用提供的文件安裝需求requirements.txt。我們還需要更新一些額外的軟件包。運行下面的單元格將為我們完成設置:

    !pipinstall-rrequirements.txt!pipinstall-Udatasetstransformerstokenizerspydanticauto_gptqgradio

    現(xiàn)在它已經(jīng)運行了,我們已經(jīng)準備好運行 Web UI 了。接下來,讓我們下載模型。

    下載模型

    Oogabooga 文本生成 Web UI 旨在使 GPT 模型的運行推理和訓練變得極其簡單,并且它特別適用于 HuggingFace 格式的模型。為了方便訪問這些大文件,他們提供了一個模型下載腳本,可以輕松下載任何 HuggingFace 模型。

    運行第二個代碼單元中的代碼以下載 LLaMA 2 的 7B 版本以運行 Web UI。我們將下載模型的GPTQ優(yōu)化版本,這可以顯著降低使用量化運行模型的成本。

    !pythondownload-model.pyTheBloke/Llama-2-7B-GPTQ

    幾分鐘后模型下載完成后,我們就可以開始了。

    啟動應用程序

    我們現(xiàn)在準備加載應用程序!只需運行 Notebook 末尾的代碼單元即可啟動 Web UI。檢查單元格的輸出,找到公共 URL,然后打開 Web UI 以開始。這將以 8 位格式自動加載模型。

    !pythonserver.py--share--modelTheBloke_Llama-2-7B-chat-GPTQ--load-in-8bit--bf16--auto-devices

    可以通過任何可訪問互聯(lián)網(wǎng)的瀏覽器從任何地方訪問此公共鏈接。

    LLaMA 2:最新開源 GPT 模型的功能和演示教程

    Web UI 文本生成選項卡

    我們將看到的第一個選項卡是文本生成選項卡。我們可以在此處使用文本輸入查詢模型。在上面,我們可以看到 LLaMA 2 的聊天變體被詢問一系列與 LLaMA 架構(gòu)相關的問題的示例。

    頁面左下角有很多提示模板可供我們選擇。這些有助于調(diào)整聊天模型給出的響應。然后我們可以輸入我們喜歡的任何問題或說明。該模型將使用右側(cè)的輸出讀取器將結(jié)果流式傳輸回給我們。

    我們還想指出參數(shù)、模型和訓練選項卡。在參數(shù)選項卡中,我們可以調(diào)整各種超參數(shù)以對模型進行推理。模型選項卡允許我們加載任何具有或不具有適當 LoRA(低階適應)模型的模型。最后,訓練選項卡讓我們可以根據(jù)我們可能提供的任何數(shù)據(jù)訓練新的 LoRA。這可用于在 Web UI 中重新創(chuàng)建 Alpaca 或 Vicuna 等項目。

    結(jié)束語

    LLaMA 2 是開源大型語言建模向前邁出的重要一步。從論文和他們研究團隊提出的結(jié)果,以及我們自己使用模型后的定性猜想來看,LLaMA2 將繼續(xù)推動LLM的擴散和發(fā)展越來越遠。我們期待未來基于該項目并對其進行擴展的項目,就像 Alpaca 之前所做的那樣。

    鄭重聲明:本文內(nèi)容及圖片均整理自互聯(lián)網(wǎng),不代表本站立場,版權(quán)歸原作者所有,如有侵權(quán)請聯(lián)系管理員(admin#wlmqw.com)刪除。
    用戶投稿
    上一篇 2023年7月20日 15:14
    下一篇 2023年7月20日 15:15

    相關推薦

    • 日本電視劇收視率歷史排名(電視劇收視率歷史排名)

      收視率最高的電視劇排行榜前十名 1、但是《還珠格格》卻是我童年中我最喜歡看的電視劇。每到夏天的時候總會去看,好像如果這個夏天沒有看這個電視劇,夏天好像就沒有到來。可見這部電視劇對于…

      2024年1月24日
    • 液壓機械缸鍛造廠家品質(zhì)好的有哪些值得推薦?

      液壓機是一種以液體為工作介質(zhì)的重要機械設備,其核心功能是傳遞能量,實現(xiàn)各種工藝流程。除了在鍛壓成形方面的應用,液壓機還廣泛應用于矯正、壓裝、打包、壓塊和壓板等領域。根據(jù)工作介質(zhì)的不…

      2024年1月24日
    • 湖南暴雪已致1萬多人受災

      據(jù)@湖南氣象 ,22日7時至23日7時,湘中、湘南出現(xiàn)大到暴雪,長沙(瀏陽)、株洲(醴陵、茶陵)等13個縣市區(qū)出現(xiàn)大暴雪,郴州(北湖區(qū))、株洲(荷塘區(qū))出現(xiàn)特大暴雪;全省23個縣市…

      2024年1月24日
    • 落馬貪官退贓像“割肉”,詢問能不能少交點

      “就像割我身上的肉一般,會讓我痛不欲生?!?24日,中央紀委國家監(jiān)委網(wǎng)站發(fā)布了針對云南省文山州住房和城鄉(xiāng)建設局原黨組成員、副局長李慶明嚴重違紀違法案的剖析。信奉金錢至上的李慶明惜財…

      2024年1月24日
    • 中國gdp排行榜城市(中國gdp排行榜)

      中國各省gdp排名 1、根據(jù)查詢國家統(tǒng)計局官網(wǎng)信息顯示,2023年各省排名,廣東:GDP為1243667億。江蘇:GDP為116362億。山東:GDP為83099億。浙江:GDP為…

      2024年1月24日
    • SK-II大中華區(qū)季度銷售額暴跌34%,寶潔:日本核污水排海是主因

      財聯(lián)社1月24日訊(編輯 卞純)全球日用消費品巨頭寶潔公司(ProcterGamble)周二表示,在截至12月底的第二財季,其高端護膚品牌SK-II在大中華區(qū)的銷售額下降了34%,…

      2024年1月24日
    • 呼和浩特白塔機場通報“保潔員占母嬰室吃飯”:涉事人已被辭退

      呼和浩特白塔機場通報“保潔員占母嬰室吃飯”:涉事人已被辭退 原標題: 呼和浩特白塔機場通報“保潔員占母嬰室吃飯”:涉事人已被辭退 央視網(wǎng)消息:據(jù)@呼和浩特白塔國際機場 消息,呼和浩…

      2024年1月24日
    • 退休職工舉報局長被判刑,被舉報人卻提級退休把人看懵了

      文|龍之朱 又見錯抓錯判上了熱搜。 據(jù)媒體報道,從2016年3月起,安徽宿州市碭山縣農(nóng)機局退休職工李平實名向紀檢部門舉報局長王超經(jīng)濟問題,均石沉大海。 2017年7月,李平夫婦及親…

      2024年1月24日
    • 6寸蛋糕用5斤車厘子店家道歉

      【#6寸蛋糕用5斤車厘子店家道歉#:客服能力不足,多報了2斤車厘子】#遇到商家虛假宣傳你會怎么辦# 近日,有網(wǎng)友發(fā)帖稱做六寸蛋糕需要5斤車厘子引熱議。 1月22日,涉事店家就“6寸…

      2024年1月24日
    • 格蘭芬多院徽簡筆畫(格蘭芬多院徽)

      哈利波特的霍格沃茨學校分別是哪些學院? 1、《哈利波特》電影中的霍格沃茨學院,一共分為四個學院,分別是:格蘭芬多、赫奇帕奇、拉文克勞與斯萊特林。 2、霍格沃茨魔法學院共有格蘭芬多、…

      2024年1月24日

    聯(lián)系我們

    聯(lián)系郵箱:admin#wlmqw.com
    工作時間:周一至周五,10:30-18:30,節(jié)假日休息