日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于Llama 2的一切資源,我們都幫你整理好了

深度學(xué)習(xí)自然語言處理 ? 來源:Hugging Face ? 2023-08-23 15:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Llama 2 是一個(gè)由 Meta 開發(fā)的大型語言模型,是 LLaMA 1 的繼任者。Llama 2 可通過 AWS、Hugging Face 獲取,并可以自由用于研究和商業(yè)用途。Llama 2 預(yù)訓(xùn)練模型在 2 萬億個(gè)標(biāo)記上進(jìn)行訓(xùn)練,相比 LLaMA 1 的上下文長度增加了一倍。它的微調(diào)模型則在超過 100 萬個(gè)人工標(biāo)注數(shù)據(jù)下完成。

這篇博客包含了所有的相關(guān)資源,以幫助您快速入門。

來自 Meta 官方的公告可以在這里找到:https://ai.meta.com/llama/

LLaMA 2 是什么?

Meta 發(fā)布的 Llama 2,是新的 SOTA 開源大型語言模型(LLM)。Llama 2 代表著 LLaMA 的下一代版本,可商用。Llama 2 有 3 種不同的大小 —— 7B、13B 和 70B 個(gè)可訓(xùn)練參數(shù)。與原版 LLaMA 相比,新的改進(jìn)包括:

  • 在 2 萬億個(gè)標(biāo)記的文本數(shù)據(jù)上進(jìn)行訓(xùn)練
  • 允許商業(yè)使用
  • 默認(rèn)使用 4096 個(gè)前后文本視野
  • 70B 模型采用了分組查詢注意力(GQA)
  • 可以在 Hugging Face Hub 上直接獲取https://hf.co/models?other=llama-2

即刻解鎖 Llama2

有幾個(gè)不同的游樂場(chǎng)供與 Llama 2 來測(cè)試:

HuggingChat

在我們推出的 HuggingChat 中使用 Llama 2 70B:https://hf.co/chat

Hugging Face Space 應(yīng)用

我們?cè)?Space 應(yīng)用上提供了三個(gè)大小的 Llama 2 模型的體驗(yàn),分別是:

  • 7Bhttps://hf.co/spaces/huggingface-projects/llama-2-7b-chat
  • 13Bhttps://huggingface.co/spaces/huggingface-projects/llama-2-13b-chat
  • 70Bhttps://huggingface.co/spaces/ysharma/Explore_llamav2_with_TGI

Perplexity

Perplexity 的對(duì)話 AI 演示提供 7B 和 13B 的 Llama 2 模型:https://llama.perplexity.ai/

Llama 2 背后的研究工作

Llama 2 是一個(gè)基礎(chǔ)大語言模型,它由網(wǎng)絡(luò)上公開可獲取到的數(shù)據(jù)訓(xùn)練完成。另外 Meta 同時(shí)發(fā)布了它的 Chat 版本。Chat 模型的第一個(gè)版本是 SFT(有監(jiān)督調(diào)優(yōu))模型。在這之后,LLaMA-2-chat 逐步地經(jīng)過人類反饋強(qiáng)化學(xué)習(xí)(RLHF)來進(jìn)化。RLHF 的過程使用了拒絕采樣與近端策略優(yōu)化(PPO)的技術(shù)來進(jìn)一步調(diào)優(yōu)聊天機(jī)器人。Meta 目前僅公布了模型最新的 RLHF (v5) 版本。若你對(duì)此過程背后的過程感興趣則請(qǐng)查看:

  • Llama 2: 開源并已微調(diào)的聊天模型https://arxiv.org/abs/2307.09288
  • Llama 2: 一個(gè)超贊的開源大語言模型https://www.interconnects.ai/p/llama-2-from-meta
  • Llama 2 的全面拆解https://www.youtube.com/watch?v=zJBpRn2zTco

Llama 2 的性能有多好,基準(zhǔn)測(cè)試?

Meta 表示:

Llama 2 在眾多外部基準(zhǔn)測(cè)試中都優(yōu)于其他開源的語言模型,包括推理、編程、熟練程度與知識(shí)測(cè)驗(yàn)。

關(guān)于其性能你可以在這里找到更多信息:

  • Hugging Face 開源大語言模型排行榜https://hf.co/spaces/HuggingFaceH4/open_llm_leaderboard
  • Meta 官方公告https://ai.meta.com/llama/

如何為 LLaMA 2 Chat 寫提示詞 (prompts)

Llama 2 Chat 是一個(gè)開源對(duì)話模型。想要與 Llama 2 Chat 進(jìn)行高效地交互則需要你提供合適的提示詞,以得到合乎邏輯且有幫助的回復(fù)。Meta 并沒有選擇最簡單的提示詞結(jié)構(gòu)。

以下是單輪、多輪對(duì)話的提示詞模板。提示詞模板遵循模型訓(xùn)練過程,你可以在這里查看到詳細(xì)描述:

  • Llama 2 論文https://hf.co/papers/2307.09288
  • Llama 2 提示詞模板https://gpus.llm-utils.org/llama-2-prompt-template/

單輪對(duì)話

[INST]<>
{{system_prompt}}
<>

{{user_message}}[/INST]

多輪對(duì)話

[INST]<>
{{system_prompt}}
<>

{{user_msg_1}}[/INST]{{model_answer_1}}[INST]{{user_msg_2}}[/INST]{{model_answer_2}}[INST]{{user_msg_3}}[/INST]

如何訓(xùn)練 LLaMA 2

因 LLaMA 2 為開源模型,使得可以輕易的通過微調(diào)技術(shù),比如 PEFT,來訓(xùn)練它。這是一些非日適合于訓(xùn)練你自己版本 LLaMA 2 的學(xué)習(xí)資源:

  • 擴(kuò)展指引:指令微調(diào) Llama 2https://www.philschmid.de/instruction-tune-llama-2
  • 在 Amazon SageMaker 上微調(diào) Llama 2 (7-70B)https://www.philschmid.de/sagemaker-llama2-qlora
  • 使用 PEFT 技術(shù)微調(diào)https://hf.co/blog/zh/llama2#fine-tuning-with-peft
  • Meta 提供的 Llama 模型示例以及方案https://github.com/facebookresearch/llama-recipes/tree/main
  • 在本地機(jī)器上微調(diào) LLAMA-v2 最簡單的方法!https://www.youtube.com/watch?v=3fsn19OI_C8

如何部署 Llama 2?

Llama 2 可以在本地環(huán)境部署,使用托管服務(wù)如 Hugging Face Inference Endpoints 或通過 AWS、Google Cloud、Microsoft Azure 等。

你可以查閱下述資源:

  • llama.cpphttps://github.com/ggerganov/llama.cpp
  • 使用文本生成接口與推理終端來部署 LLama 2https://hf.co/blog/llama2#using-text-generation-inference-and-inference-endpoints
  • 使用 Amazon SageMaker 部署 LLaMA 2 70Bhttps://www.philschmid.de/sagemaker-llama-llm
  • 在你的 M1/M2 Mac 上通過 GPU 接口來本地部署 Llama-2-13B-chathttps://gist.github.com/adrienbrault/b76631c56c736def9bc1bc2167b5d129

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41326

    瀏覽量

    302707
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4368

    瀏覽量

    46470
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    575

    瀏覽量

    11345

原文標(biāo)題:關(guān)于 Llama 2 的一切資源,我們都幫你整理好了

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在Arm Neoverse N2平臺(tái)上提升llama.cpp擴(kuò)展性能

    跨 NUMA 內(nèi)存訪問可能會(huì)限制 llama.cpp 在 Arm Neoverse 平臺(tái)上的擴(kuò)展能力。本文將為你詳細(xì)分析這問題,并通過引入原型驗(yàn)證補(bǔ)丁來加以解決。測(cè)試結(jié)果表明,在基于 Neoverse N2 平臺(tái)的系統(tǒng)上運(yùn)行
    的頭像 發(fā)表于 02-11 10:06 ?336次閱讀

    一切源于對(duì)長期主義的“偏執(zhí)”!我們為什么這樣構(gòu)建ROBOMIND

    ROBOMIND機(jī)器人物理AI大腦,旨在模型、軟件和硬件之間,找到條真正適合走向規(guī)?;穆窂?。
    的頭像 發(fā)表于 01-30 17:04 ?726次閱讀

    別讓USB拖后腿!硬件參考設(shè)計(jì)+軟件開發(fā)API,幫你整理好了

    USB_DM,歷史原因直將錯(cuò)誤寫法延續(xù)到了現(xiàn)在。 USB_DM: USB Data Minus,USB數(shù)據(jù)負(fù)信號(hào); USB_DP: USB Data Positive,USB數(shù)據(jù)正信號(hào)。 02. 功能
    的頭像 發(fā)表于 01-05 20:40 ?384次閱讀
    別讓USB拖后腿!硬件參考設(shè)計(jì)+軟件開發(fā)API,<b class='flag-5'>都</b><b class='flag-5'>幫你</b><b class='flag-5'>整理好了</b>

    真不敢信,PCB板上就挪動(dòng)了個(gè)電阻,DDR3竟神奇變好了

    DDRx調(diào)試的問題我們經(jīng)常會(huì)碰到,但PCB板上這個(gè)問題卻很初級(jí),調(diào)了周都沒有解決,沒想到最后挪動(dòng)了個(gè)電阻就好了,不信大家來看看怎么回事!
    的頭像 發(fā)表于 01-05 15:40 ?455次閱讀
    真不敢信,PCB板上就挪動(dòng)了<b class='flag-5'>一</b>個(gè)電阻,DDR3竟神奇變<b class='flag-5'>好了</b>

    【CIE全國RISC-V創(chuàng)新應(yīng)用大賽】基于 K1 AI CPU 的大模型部署落地

    /llama-cli --version 第二步:獲取 14B 的 Q2_K 模型 由于官方文檔演示的是 0.6B 小模型,我們需要自己獲取 Qwen2.5-14B 的 Q2_K 版
    發(fā)表于 11-27 14:43

    從零開始了解智慧教室(二):智慧教室的類型與適用場(chǎng)景

    廣凌科技(廣凌股份)作為智慧教室領(lǐng)域的領(lǐng)軍企業(yè),其整體解決方案以“場(chǎng)景適配、數(shù)據(jù)驅(qū)動(dòng)、開放兼容”為核心理念,智慧教室的類型與適用場(chǎng)景整理好了,起來了解下吧~
    的頭像 發(fā)表于 11-26 18:05 ?460次閱讀
    從零開始了解智慧教室(二):智慧教室的類型與適用場(chǎng)景

    新手小白必看!關(guān)于A100云主機(jī)租用,你想知道的一切都在這!

    “我想租臺(tái)A100云主機(jī)來跑我的模型,但完全不知道從何下手?!薄@是我們聽到最多的來自AI新手的聲音。A100,這個(gè)聽起來就“高大上”的名詞,背后其實(shí)是套清晰、可操作的流程。今天,我們
    的頭像 發(fā)表于 10-31 19:24 ?2027次閱讀
    新手小白必看!<b class='flag-5'>關(guān)于</b>A100云主機(jī)租用,你想知道的<b class='flag-5'>一切</b>都在這!

    無功補(bǔ)償控制器投的時(shí)間奧秘:延時(shí)、震蕩、放電次講透!

    在無功補(bǔ)償控制器中,電容器投是其中重要的環(huán),它在定程度上決定了功率因數(shù)的大小以及你是否在被罰款,那么什么時(shí)候去做投,投的時(shí)間應(yīng)該如
    的頭像 發(fā)表于 10-31 11:15 ?685次閱讀
    無功補(bǔ)償控制器投<b class='flag-5'>切</b>的時(shí)間奧秘:延時(shí)、震蕩、放電<b class='flag-5'>一</b>次講透!

    無功補(bǔ)償控制器投的時(shí)間奧秘:延時(shí)、震蕩、放電次講透!

    在無功補(bǔ)償控制器中,電容器投是其中重要的環(huán),它在定程度上決定了功率因數(shù)的大小以及你是否在被罰款,那么什么時(shí)候去做投,投的時(shí)間應(yīng)該如
    的頭像 發(fā)表于 10-15 10:07 ?716次閱讀
    無功補(bǔ)償控制器投<b class='flag-5'>切</b>的時(shí)間奧秘:延時(shí)、震蕩、放電<b class='flag-5'>一</b>次講透!

    求助, 關(guān)于rs485的發(fā)送問題求解

    利用rs485軟件包進(jìn)行只發(fā)不收測(cè)試,發(fā)現(xiàn)2個(gè)很怪異有趣的現(xiàn)象,請(qǐng)問大家這是啥原因: 1 如果RT_DEVICE_OFLAG_WRONLY,發(fā)送9個(gè)字節(jié)一切正常; 2 如果開啟
    發(fā)表于 10-14 06:59

    什么是ARM架構(gòu)?你需要知道的一切

    從智能手機(jī)到工業(yè)邊緣計(jì)算機(jī),ARM?架構(gòu)為全球數(shù)十億臺(tái)設(shè)備提供動(dòng)力。ARM?以其效率優(yōu)先的設(shè)計(jì)和靈活的許可模式而聞名,已迅速從移動(dòng)處理器擴(kuò)展到人工智能邊緣計(jì)算、工業(yè)控制器,甚至數(shù)據(jù)中心。本文我們
    的頭像 發(fā)表于 09-11 14:48 ?1748次閱讀
    什么是ARM架構(gòu)?你需要知道的<b class='flag-5'>一切</b>

    【VisionFive 2單板計(jì)算機(jī)試用體驗(yàn)】3、開源大語言模型部署

    , Gemma等開源大模型。當(dāng)然,些閉源的(類似chatgpt, gemini)是不支持部署的。如下圖: 在端側(cè)部署大模型,個(gè)人認(rèn)為最大的好處:是可以避免因文本或圖片上傳而造成的信息泄露,因?yàn)?b class='flag-5'>一切文本
    發(fā)表于 07-19 15:45

    使用 NPU 插件對(duì)量化的 Llama 3.1 8b 模型進(jìn)行推理時(shí)出現(xiàn)“從 __Int64 轉(zhuǎn)換為無符號(hào) int 的錯(cuò)誤”,怎么解決?

    安裝了 OpenVINO? GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    發(fā)表于 06-25 07:20

    關(guān)于 樹莓派5 超頻:你需要知道的一切

    摘要樹莓派5可通過超頻提升性能,對(duì)于機(jī)器學(xué)習(xí)等處理器密集型任務(wù)尤為有用。超頻樹莓派5時(shí),需將其溫度控制在80°C以下。官方樹莓派5機(jī)箱配備散熱風(fēng)扇,主動(dòng)散熱配件則包含散熱片和風(fēng)扇,均有助于溫度控制。超頻樹莓派5需修改config.txt啟動(dòng)設(shè)置文件,調(diào)整CPU速度設(shè)置。但超頻可能縮短Pi5的使用壽命,并使保修失效,因此需謹(jǐn)慎操作。樹莓派5的速度比樹莓派4快兩
    的頭像 發(fā)表于 06-10 17:29 ?3061次閱讀
    <b class='flag-5'>關(guān)于</b> 樹莓派5 超頻:你需要知道的<b class='flag-5'>一切</b>!

    層層剝開開鴻Bot,我們看到的是“開發(fā)者優(yōu)先”

    對(duì)開源生態(tài)來說,社區(qū)先于代碼,開發(fā)者重于一切
    的頭像 發(fā)表于 05-27 09:23 ?3103次閱讀
    層層剝開開鴻Bot,<b class='flag-5'>我們</b>看到的是“開發(fā)者優(yōu)先”
    偃师市| 南郑县| 易门县| 南涧| 海伦市| 卢龙县| 泾川县| 洛隆县| 宝山区| 伊金霍洛旗| 肃宁县| 山西省| 锦屏县| 泾川县| 丹凤县| 台北市| 通州市| 九龙县| 游戏| 西和县| 密山市| 建宁县| 砀山县| 长乐市| 增城市| 原阳县| 海城市| 扶余县| 长顺县| 扶沟县| 武安市| 全州县| 岳普湖县| 汶川县| 凤翔县| 乐平市| 天长市| 孝昌县| 漯河市| 集贤县| 阿克|