日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

OpenAI發(fā)布了一個(gè)“逆天”的AI模型——GPT2整個(gè)模型包含15億個(gè)參數(shù)

電子工程師 ? 來(lái)源:lp ? 2019-03-07 14:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

上個(gè)月,OpenAI發(fā)布了一個(gè)“逆天”的AI模型——GPT2,整個(gè)模型包含15億個(gè)參數(shù)。你給它一句話(huà),它能給你編出一篇文章來(lái)。

OpenAI的研究主管Dario Amodei表示,GPT2是在一個(gè)包含大約1000萬(wàn)篇文章的數(shù)據(jù)集上進(jìn)行培訓(xùn)的,比之前最先進(jìn)的AI模型大12倍,數(shù)據(jù)集大15倍。

有這么厲害?看看他的實(shí)力水平不就知道了,OpenAI給出了這么一個(gè)開(kāi)頭:

在一項(xiàng)研究中,科學(xué)家們發(fā)現(xiàn)了一群獨(dú)角獸,它們生活在安第斯山脈一個(gè)偏遠(yuǎn)的還沒(méi)被開(kāi)發(fā)山谷中,更令人驚訝的是這些獨(dú)角獸會(huì)說(shuō)一口流利的英語(yǔ)

就這么一句話(huà),GPT-2能寫(xiě)出以下這么一大段故事:

因?yàn)樗鼈儶?dú)特的角,科學(xué)家們將他們命名為Ovid’s Unicorn,這些四角、銀色角的獨(dú)角獸是原來(lái)科學(xué)家所不曾見(jiàn)過(guò)的。

......中間還編寫(xiě)了,這些獨(dú)角獸是如何被發(fā)現(xiàn)的,以及業(yè)內(nèi)權(quán)威人士認(rèn)為這些生物是如何出現(xiàn)的,最后還表明要驗(yàn)證這群獨(dú)角獸是否為外星種族,唯一的方法可能就是通過(guò)DNA。

這一本正經(jīng)的胡說(shuō)八道,說(shuō)的猿妹我都信以為真

能有這樣出色的表現(xiàn),不是沒(méi)有原因的,GPT-2各種特定領(lǐng)域的語(yǔ)言建模任務(wù)中都取得了很好的分?jǐn)?shù)。作為一個(gè)沒(méi)有經(jīng)過(guò)任何領(lǐng)域數(shù)據(jù)專(zhuān)門(mén)訓(xùn)練的模型,它的表現(xiàn),比那些專(zhuān)為特定領(lǐng)域數(shù)據(jù)集(例如維基百科,新聞,書(shū)籍)上訓(xùn)練的模型。有圖有真相:

除了能用于語(yǔ)言建模,GPT-2在問(wèn)答、閱讀理解、摘要生成、翻譯等等任務(wù)上也都有非常好的成績(jī),openAI在博客上也給出了示例,感興趣的可以前往查看(地址:https://blog.openai.com/better-language-models/)

除了以上提到的這些優(yōu)異表現(xiàn),最主要的是GPT-2還學(xué)習(xí)幾種編程語(yǔ)言的語(yǔ)法模型,比如PHP和JavaScript。

它寫(xiě)出來(lái)的JavaScript長(zhǎng)這樣:

還有PHP語(yǔ)言:

就連Facebook AI研究院的Tim Rockt?schel看了GPT-2寫(xiě)出來(lái)的代碼都表示:我們要有大麻煩了

話(huà)雖如此,該博客下面也有人表示其實(shí),GPT-2寫(xiě)的代碼不夠嚴(yán)謹(jǐn),容易把js、C++、Python等語(yǔ)言混為一談。但實(shí)力依然不可小覷

目前,GPT-2已經(jīng)在GitHub上獲得4116個(gè)Star,674個(gè)Fork(地址:https://github.com/openai/gpt-2),喜歡的人可以嘗試一下

不過(guò),OpenAI 的研究人員們決定不發(fā)布訓(xùn)練模型的數(shù)據(jù)、也不發(fā)布最大那個(gè)模型預(yù)訓(xùn)練后的參數(shù),因?yàn)樗麄冋J(rèn)為如此強(qiáng)力的模型有遭到惡意濫用的風(fēng)險(xiǎn)。最后,你們?nèi)绾慰创@個(gè)項(xiàng)目呢?

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41315

    瀏覽量

    302701
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26264
  • 獨(dú)角獸
    +關(guān)注

    關(guān)注

    0

    文章

    236

    瀏覽量

    27576

原文標(biāo)題:這個(gè)開(kāi)源AI逆天了!編故事問(wèn)答翻譯樣樣行,最主要的是還會(huì)寫(xiě)代碼

文章出處:【微信號(hào):TheBigData1024,微信公眾號(hào):人工智能與大數(shù)據(jù)技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    迄今最大模型?OpenAI發(fā)布參數(shù)量高達(dá)15的通用語(yǔ)言模型GPT-2

    史上最強(qiáng)“通用”NLP模型來(lái)襲:今天OpenAI在官博介紹他們訓(xùn)練的個(gè)大規(guī)模無(wú)監(jiān)督NLP模型
    的頭像 發(fā)表于 02-16 08:43 ?4878次閱讀

    OpenAI發(fā)布款令人印象深刻的語(yǔ)言模型GPT-2

    今年2月,OpenAI發(fā)布款令人印象深刻的語(yǔ)言模型GPT
    的頭像 發(fā)表于 05-17 18:48 ?5226次閱讀

    OpenAI宣布,發(fā)布7.74參數(shù)GPT-2語(yǔ)言模型

    就在本周,OpenAI宣布,發(fā)布7.74參數(shù)GPT-2語(yǔ)言
    的頭像 發(fā)表于 09-01 09:10 ?3674次閱讀

    谷歌訓(xùn)練開(kāi)發(fā)個(gè)萬(wàn)億參數(shù)AI語(yǔ)言模型

    參數(shù)是機(jī)器學(xué)習(xí)算法的關(guān)鍵。它們是從歷史訓(xùn)練數(shù)據(jù)中學(xué)到的模型部分。般來(lái)說(shuō),在語(yǔ)言領(lǐng)域,參數(shù)的數(shù)量和復(fù)雜性之間的相關(guān)性非常好。例如,
    的頭像 發(fā)表于 01-18 16:19 ?2363次閱讀

    谷歌開(kāi)發(fā)出個(gè)新的語(yǔ)言模型,包含了超過(guò)1.6萬(wàn)億個(gè)參數(shù)

    AI模型GPT-3。GPT-3就是在570 GB的文本數(shù)據(jù)上訓(xùn)練的語(yǔ)言模型,因此,就訓(xùn)練數(shù)據(jù)和生成能力而言,
    的頭像 發(fā)表于 01-19 15:29 ?2420次閱讀

    個(gè)GPU訓(xùn)練個(gè)130參數(shù)模型

    現(xiàn)在的模型動(dòng)輒數(shù)百、數(shù)千億參數(shù),普通人訓(xùn)不動(dòng)怎么辦? 前不久,谷歌發(fā)布參數(shù)量為 1.6 萬(wàn)億的語(yǔ)言模型
    的頭像 發(fā)表于 02-11 09:04 ?3141次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>GPU訓(xùn)練<b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>130<b class='flag-5'>億</b><b class='flag-5'>參數(shù)</b>的<b class='flag-5'>模型</b>

    ChatGPT升級(jí) OpenAI史上最強(qiáng)大模型GPT-4發(fā)布

    ChatGPT升級(jí) 史上最強(qiáng)大模型GPT-4發(fā)布 OpenAI正式推出了ChatGPT升級(jí)版本,號(hào)稱(chēng)史上最強(qiáng)大模型
    的頭像 發(fā)表于 03-15 18:15 ?3600次閱讀

    State of GPT:大神Andrej揭秘OpenAI模型原理和訓(xùn)練過(guò)程

    你可以看到,Llama 的參數(shù)數(shù)量大概是 650 。現(xiàn)在,盡管與 GPT3 的 1750 個(gè)參數(shù)
    的頭像 發(fā)表于 05-30 14:34 ?2060次閱讀
    State of <b class='flag-5'>GPT</b>:大神Andrej揭秘<b class='flag-5'>OpenAI</b>大<b class='flag-5'>模型</b>原理和訓(xùn)練過(guò)程

    DeepSpeed結(jié)合Megatron-LM訓(xùn)練GPT2模型筆記

    本文基于DeepSpeedExamples倉(cāng)庫(kù)中給出的Megatron相關(guān)例子探索下訓(xùn)練GPT2模型的流程。主要包含3個(gè)部分,第
    的頭像 發(fā)表于 06-19 14:45 ?5023次閱讀
    DeepSpeed結(jié)合Megatron-LM訓(xùn)練<b class='flag-5'>GPT2</b><b class='flag-5'>模型</b>筆記

    ChatGPT重磅更新 OpenAI發(fā)布GPT-4 Turbo模型價(jià)格大降2/3

    ChatGPT重磅更新 OpenAI發(fā)布GPT-4 Turbo模型價(jià)格大降2/3 目前OpenAI
    的頭像 發(fā)表于 11-07 18:20 ?3745次閱讀
    ChatGPT重磅更新 <b class='flag-5'>OpenAI</b><b class='flag-5'>發(fā)布</b><b class='flag-5'>GPT</b>-4 Turbo<b class='flag-5'>模型</b>價(jià)格大降<b class='flag-5'>2</b>/3

    聯(lián)發(fā)科璣9300最高可運(yùn)行330參數(shù)AI模型

    聯(lián)發(fā)科璣9300最高可運(yùn)行330參數(shù)AI模型 聯(lián)發(fā)科這個(gè)是要把AI
    的頭像 發(fā)表于 11-07 19:00 ?2746次閱讀

    人手個(gè)AI是如何誕生的?

    2023年是AI大語(yǔ)言模型爆發(fā)的年,以OpenAI推出的GPT模型為起始,
    的頭像 發(fā)表于 07-23 10:33 ?853次閱讀

    OpenAI即將推出GPT-5模型

    OpenAI首席執(zhí)行官奧爾特曼近日宣布項(xiàng)重要消息:OpenAI將在今年未來(lái)幾個(gè)月內(nèi)推出全新的GPT-5
    的頭像 發(fā)表于 02-13 11:21 ?1281次閱讀

    OpenAI發(fā)布2款開(kāi)源模型

    OpenAI開(kāi)源兩款高性能權(quán)重語(yǔ)言模型gpt-oss-120b和gpt-oss-20b,OpenAI
    的頭像 發(fā)表于 08-06 14:25 ?1167次閱讀

    GPT-5.1發(fā)布 OpenAI開(kāi)始拼情商

    OpenAI正式上線(xiàn) GPT-5.1 Instant 以及 GPT-5.1 Thinking 模型;有網(wǎng)友實(shí)測(cè)發(fā)現(xiàn)
    的頭像 發(fā)表于 11-13 15:49 ?841次閱讀
    宁远县| 开平市| 文登市| 兴安盟| 鄂托克旗| 秦皇岛市| 噶尔县| 湘潭县| 抚顺市| 金昌市| 汶上县| 灵宝市| 博客| 东平县| 固原市| 含山县| 志丹县| 镶黄旗| 榆社县| 宝坻区| 饶河县| 宁远县| 襄樊市| 乐都县| 普宁市| 民县| 汾西县| 朝阳市| 平利县| 大悟县| 南阳市| 天津市| 南充市| 石楼县| 河源市| 永仁县| 于田县| 桃江县| 汝州市| 延津县| 东莞市|