日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

只需一個(gè)API,包含了27個(gè)預(yù)訓(xùn)練模型

DPVg_AI_era ? 來(lái)源:lq ? 2019-07-27 07:52 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

只需一個(gè)API,直接調(diào)用BERT, GPT, GPT-2, Transfo-XL, XLNet, XLM等6大框架,包含了27個(gè)預(yù)訓(xùn)練模型。簡(jiǎn)單易用,功能強(qiáng)大。

One API to rule them all。

前幾日,著名最先進(jìn)的自然語(yǔ)言處理預(yù)訓(xùn)練模型庫(kù)項(xiàng)目pytorch-pretrained-bert改名Pytorch-Transformers重裝襲來(lái),1.0.0版橫空出世。

只需一個(gè)API,直接調(diào)用BERT, GPT, GPT-2, Transfo-XL, XLNet, XLM等6大框架,包含了27個(gè)預(yù)訓(xùn)練模型。

簡(jiǎn)單易用,功能強(qiáng)大。目前已經(jīng)包含了PyTorch實(shí)現(xiàn)、預(yù)訓(xùn)練模型權(quán)重、運(yùn)行腳本和以下模型的轉(zhuǎn)換工具:

BERT,論文:“BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”,論文作者:Jacob Devlin, Ming-Wei Chang, Kenton Lee,Kristina Toutanova

OpenAI 的GPT,論文:“Improving Language Understanding by Generative Pre-Training”,論文作者:Alec Radford, Karthik Narasimhan, Tim Salimans, Ilya Sutskever

OpenAI的GPT-2,論文:“Language Models are Unsupervised Multitask Learners”,論文作者:Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei,Ilya Sutskever

谷歌和CMU的Transformer-XL,論文:“Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context”,論文作者:Zihang Dai, Zhilin Yang, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan Salakhutdinov.

谷歌和CMU的XLNet,論文:“XLNet: Generalized Autoregressive Pretraining for Language Understanding”,論文作者:Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Ruslan Salakhutdinov, Quoc V. Le

Facebook的XLM,論文:“Cross-lingual Language Model Pretraining”,論文作者:Guillaume Lample,Alexis Conneau

這些實(shí)現(xiàn)都在幾個(gè)數(shù)據(jù)集(參見(jiàn)示例腳本)上進(jìn)行了測(cè)試,性能與原始實(shí)現(xiàn)相當(dāng),例如BERT中文全詞覆蓋在SQuAD數(shù)據(jù)集上的F1分?jǐn)?shù)為93;OpenAI GPT 在RocStories上的F1分?jǐn)?shù)為88;Transformer-XL在WikiText 103上的困惑度為18.3;XLNet在STS-B的皮爾遜相關(guān)系數(shù)為0.916。

項(xiàng)目中提供27個(gè)預(yù)訓(xùn)練模型,下面是這些模型的完整列表,以及每個(gè)模型的簡(jiǎn)短介紹。

BERT-base和BERT-large分別是110M和340M參數(shù)模型,并且很難在單個(gè)GPU上使用推薦的批量大小對(duì)其進(jìn)行微調(diào),來(lái)獲得良好的性能(在大多數(shù)情況下批量大小為32)。

為了幫助微調(diào)這些模型,作者提供了幾種可以在微調(diào)腳本中激活的技術(shù) run_bert_classifier.py和run_bert_squad.py:梯度累積(gradient-accumulation),多GPU訓(xùn)練(multi-gpu training),分布式訓(xùn)練(distributed training )和16- bits 訓(xùn)練( 16-bits training)。

注意,這里要使用分布式訓(xùn)練和16- bits 訓(xùn)練,你需要安裝NVIDIA的apex擴(kuò)展。

作者在doc中展示了幾個(gè)基于BERT原始實(shí)現(xiàn)和擴(kuò)展的微調(diào)示例,分別為:

九個(gè)不同GLUE任務(wù)的序列級(jí)分類器;

問(wèn)答集數(shù)據(jù)集SQUAD上的令牌級(jí)分類器;

SWAG分類語(yǔ)料庫(kù)中的序列級(jí)多選分類器;

另一個(gè)目標(biāo)語(yǔ)料庫(kù)上的BERT語(yǔ)言模型。

這里僅展示GLUE的結(jié)果:

該項(xiàng)目是在Python 2.7和3.5+上測(cè)試(例子只在python 3.5+上測(cè)試)和PyTorch 0.4.1到1.1.0測(cè)試。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 自然語(yǔ)言處理
    +關(guān)注

    關(guān)注

    1

    文章

    630

    瀏覽量

    14747
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    813

    瀏覽量

    14934

原文標(biāo)題:GitHub超9千星:一個(gè)API調(diào)用27個(gè)NLP預(yù)訓(xùn)練模型

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    百度發(fā)布文心5.1:預(yù)訓(xùn)練成本降至行業(yè)6%

    5月9日,百度正式發(fā)布新代基礎(chǔ)大模型文心5.1。該模型基于百度自研的"多維彈性預(yù)訓(xùn)練"技術(shù),在大幅壓縮參數(shù)規(guī)模的同時(shí),實(shí)現(xiàn)了基礎(chǔ)能力的顯著
    的頭像 發(fā)表于 05-09 11:05 ?171次閱讀

    零基礎(chǔ)手寫大模型資料2026

    零基礎(chǔ)純代碼手寫大模型:從數(shù)學(xué)原理到工程實(shí)踐的技術(shù)解析 在深度學(xué)習(xí)框架高度封裝的今天,理解大模型底層原理的開(kāi)發(fā)者愈發(fā)稀缺。本文將剝離復(fù)雜框架的依賴,從數(shù)學(xué)基礎(chǔ)出發(fā),解析如何用基礎(chǔ)代碼實(shí)現(xiàn)個(gè)
    發(fā)表于 05-01 17:44

    HM博學(xué)谷狂野AI大模型第四期

    的工程內(nèi)幕 個(gè)模型的誕生,離不開(kāi)海量數(shù)據(jù)的訓(xùn)練與精調(diào)??褚?AI 第四期將視角深入到模型訓(xùn)練
    發(fā)表于 05-01 17:30

    Edge Impulse 喚醒詞模型訓(xùn)練 | 技術(shù)集結(jié)

    今天,將手把手帶領(lǐng)學(xué)習(xí)如何訓(xùn)練個(gè)語(yǔ)音關(guān)鍵詞模型部署到嵌入式硬件上,采用Edgi-Talk平臺(tái)適配EdgeImpulse,當(dāng)然原理在其他的ARM嵌入式平臺(tái)也是通用的。讓我們看看如何讓
    的頭像 發(fā)表于 04-20 10:05 ?1445次閱讀
    Edge Impulse 喚醒詞<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b> | 技術(shù)集結(jié)

    AI大模型微調(diào)企業(yè)項(xiàng)目實(shí)戰(zhàn)課

    從零開(kāi)始預(yù)訓(xùn)練。事實(shí)上,微調(diào)技術(shù)的成熟,徹底打破了這門檻。 微調(diào)的本質(zhì),是“舉反三”的遷移學(xué)習(xí)。就好比
    發(fā)表于 04-16 18:48

    AI模型訓(xùn)練與部署實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    你是否想系統(tǒng)了解AI落地全鏈路,但缺少個(gè)完整的實(shí)戰(zhàn)項(xiàng)目練手?模型部署環(huán)節(jié)繁多,缺乏套清晰的實(shí)戰(zhàn)路徑?4月18日、4月25日、5月16日RT-Thread將分別在蘇州、成都、南京舉辦
    的頭像 發(fā)表于 04-07 13:08 ?707次閱讀
    AI<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>與部署實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    訓(xùn)練到推理:大模型算力需求的新拐點(diǎn)已至

    在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點(diǎn)主要集中在大模型訓(xùn)練所需的算力投入。個(gè)萬(wàn)億參數(shù)大模型
    的頭像 發(fā)表于 02-05 16:07 ?1077次閱讀
    從<b class='flag-5'>訓(xùn)練</b>到推理:大<b class='flag-5'>模型</b>算力需求的新拐點(diǎn)已至

    如何獲取易貝EBAY商品詳情 API 返回值說(shuō)明?

    API獲取商品詳情時(shí),通常會(huì)返回個(gè)JSON或XML格式的響應(yīng),這個(gè)響應(yīng)包含了商品的詳細(xì)信息。以下是
    的頭像 發(fā)表于 11-19 11:57 ?590次閱讀

    API到底是什么?為什么我需要它?

    API (Application Programming Interface):應(yīng)用程序編程接口。 類比理解:API它不是個(gè)具體的東西,而是
    的頭像 發(fā)表于 11-03 09:34 ?868次閱讀

    如何評(píng)價(jià)OpenRouter這樣的大模型API聚合平臺(tái)?

    我個(gè)人認(rèn)為OpenRouter的商業(yè)模式特別優(yōu)雅,大模型時(shí)代的輕資產(chǎn) “賣水人”。 open router自己不訓(xùn)練模型,也不買顯卡推理,他做的就是調(diào)用別家的API,聚合了各家的
    的頭像 發(fā)表于 10-28 10:04 ?774次閱讀

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型些經(jīng)驗(yàn)。我們采用jupyter notebook作為開(kāi)發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是
    發(fā)表于 10-22 07:03

    NVMe高速傳輸之?dāng)[脫XDMA設(shè)計(jì)27: 橋設(shè)備模型設(shè)計(jì)

    構(gòu)造 PCIe Switch 模型。 最小橋設(shè)備模型結(jié)構(gòu)如圖 1所示。圖1 最小橋設(shè)備模型結(jié)構(gòu)圖 最小橋設(shè)備模型包含
    發(fā)表于 09-18 09:11

    基于大規(guī)模人類操作數(shù)據(jù)預(yù)訓(xùn)練的VLA模型H-RDT

    近年來(lái),機(jī)器人操作領(lǐng)域的VLA模型普遍基于跨本體機(jī)器人數(shù)據(jù)集預(yù)訓(xùn)練,這類方法存在兩大局限:不同機(jī)器人本體和動(dòng)作空間的差異導(dǎo)致統(tǒng)訓(xùn)練困難;現(xiàn)
    的頭像 發(fā)表于 08-21 09:56 ?1258次閱讀
    基于大規(guī)模人類操作數(shù)據(jù)<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>的VLA<b class='flag-5'>模型</b>H-RDT

    運(yùn)行kmodel模型驗(yàn)證直報(bào)錯(cuò)怎么解決?

    我這運(yùn)行kmodel模型驗(yàn)證直報(bào)錯(cuò),所以沒(méi)法做kmodel模型好壞驗(yàn)證,不知道怎么解決這個(gè)問(wèn)題,重新訓(xùn)練
    發(fā)表于 06-10 08:02

    如何將個(gè)FA模型開(kāi)發(fā)的聲明式范式應(yīng)用切換到Stage模型

    模型切換概述 本文介紹如何將個(gè)FA模型開(kāi)發(fā)的聲明式范式應(yīng)用切換到Stage模型,您需要完成如下動(dòng)作: 工程切換:新建
    發(fā)表于 06-04 06:22
    仁化县| 罗田县| 石台县| 奉节县| 昌黎县| 汪清县| 汕头市| 新疆| 绥宁县| 永兴县| 泗洪县| 册亨县| 九江县| 嘉峪关市| 博白县| 长顺县| 永济市| 盐池县| 江阴市| 耿马| 鄂伦春自治旗| 竹北市| 南平市| 盐池县| 西乡县| 红河县| 大港区| 永胜县| 枞阳县| 屯门区| 海晏县| 无棣县| 北川| 陵川县| 小金县| 泗水县| 重庆市| 阿拉善右旗| 阿克苏市| 虞城县| 休宁县|