日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

牛津劍橋研究警告:AI訓(xùn)AI成「劇毒」,會(huì)讓模型崩潰!

AI智勝未來(lái) ? 來(lái)源:新智元 ? 2023-06-21 15:06 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

【導(dǎo)讀】最差的人類語(yǔ)料,也要?jiǎng)龠^(guò)AI生成的文本。

隨著GPT-4、Stable Diffusion和Midjourney的爆火,越來(lái)越多的人開始在工作和生活中引入生成式AI技術(shù)

甚至,有人已經(jīng)開始嘗試用AI生成的數(shù)據(jù)來(lái)訓(xùn)練AI了。難道,這就是傳說(shuō)中的「數(shù)據(jù)永動(dòng)機(jī)」?

然而,來(lái)自牛津、劍橋、帝國(guó)理工等機(jī)構(gòu)研究人員發(fā)現(xiàn),如果在訓(xùn)練時(shí)大量使用AI內(nèi)容,會(huì)引發(fā)模型崩潰(model collapse),造成不可逆的缺陷。

也就是,隨著時(shí)間推移,模型就會(huì)忘記真實(shí)基礎(chǔ)數(shù)據(jù)部分。即使在幾乎理想的長(zhǎng)期學(xué)習(xí)狀態(tài)下,這個(gè)情況也無(wú)法避免。

因此研究人員呼吁,如果想要繼續(xù)保持大規(guī)模數(shù)據(jù)帶來(lái)的模型優(yōu)越性,就必須認(rèn)真對(duì)待人類自己寫出來(lái)的文本。

036c6436-0c1d-11ee-962d-dac502259ad0.png

論文地址:https://arxiv.org/abs/2305.17493v2

但現(xiàn)在的問(wèn)題在于——你以為的「人類數(shù)據(jù)」,可能并不是「人類」寫的。

洛桑聯(lián)邦理工學(xué)院(EPFL)的最新研究稱,預(yù)估33%-46%的人類數(shù)據(jù)都是由AI生成的。

037bd59c-0c1d-11ee-962d-dac502259ad0.png

訓(xùn)練數(shù)據(jù),都是「垃圾」

毫無(wú)疑問(wèn),現(xiàn)在的大語(yǔ)言模型已經(jīng)進(jìn)化出了相當(dāng)強(qiáng)大的能力,比如GPT-4可以在某些場(chǎng)景下生成與人類別無(wú)二致的文本。

但這背后的一個(gè)重要原因是,它們的訓(xùn)練數(shù)據(jù)大部分來(lái)源于過(guò)去幾十年人類在互聯(lián)網(wǎng)上的交流。

如果未來(lái)的語(yǔ)言模型仍然依賴于從網(wǎng)絡(luò)上爬取數(shù)據(jù)的話,就不可避免地要在訓(xùn)練集中引入自己生成的文本。

對(duì)此,研究人員預(yù)測(cè),等GPT發(fā)展到第n代的時(shí)候,模型將會(huì)出現(xiàn)嚴(yán)重的崩潰問(wèn)題。

03d36c1c-0c1d-11ee-962d-dac502259ad0.png

那么,在這種不可避免會(huì)抓取到LLM生成內(nèi)容的情況下,為模型的訓(xùn)練準(zhǔn)備由人類生產(chǎn)的真實(shí)數(shù)據(jù),就變得尤為重要了。

大名鼎鼎的亞馬遜數(shù)據(jù)眾包平臺(tái)Mechanical Turk(MTurk)從2005年啟動(dòng)時(shí)就已經(jīng)成為許多人的副業(yè)選擇。

科研人員可以發(fā)布各種瑣碎的人類智能任務(wù),比如給圖像標(biāo)注、調(diào)查等,應(yīng)有盡有。

而這些任務(wù)通常是計(jì)算機(jī)和算法無(wú)法處理的,甚至,MTurk成為一些預(yù)算不夠的科研人員和公司的「最佳選擇」。

就連貝佐斯還將MTurk的眾包工人戲稱為「人工人工智能」。

03efef9a-0c1d-11ee-962d-dac502259ad0.png

除了MTurk,包括Prolific在內(nèi)的眾包平臺(tái)已經(jīng)成為研究人員和行業(yè)實(shí)踐者的核心,能夠提供創(chuàng)建、標(biāo)注和總結(jié)各種數(shù)據(jù)的方法,以便進(jìn)行調(diào)查和實(shí)驗(yàn)。

然而,來(lái)自EPFL的研究發(fā)現(xiàn),在這個(gè)人類數(shù)據(jù)的關(guān)鍵來(lái)源上,有近乎一半的數(shù)據(jù)都是標(biāo)注員用AI創(chuàng)建的。

0407fe3c-0c1d-11ee-962d-dac502259ad0.png

論文地址:https://arxiv.org/abs/2306.07899v1

模型崩潰

而最開始提到的「模型崩潰」,就是在給模型投喂了太多來(lái)自AI的數(shù)據(jù)之后,帶來(lái)的能夠影響多代的退化。

也就是,新一代模型的訓(xùn)練數(shù)據(jù)會(huì)被上一代模型的生成數(shù)據(jù)所污染,從而對(duì)現(xiàn)實(shí)世界的感知產(chǎn)生錯(cuò)誤的理解。

04445878-0c1d-11ee-962d-dac502259ad0.png

更進(jìn)一步,這種崩潰還會(huì)引發(fā)比如基于性別、種族或其他敏感屬性的歧視問(wèn)題,尤其是如果生成AI隨著時(shí)間的推移學(xué)會(huì)在其響應(yīng)中只生成某個(gè)種族,而「忘記」其他種族的存在。

而且,除了大語(yǔ)言模型,模型崩潰還會(huì)出現(xiàn)在變分自編碼器(VAE)、高斯混合模型上。

需要注意的是,模型崩潰的過(guò)程與災(zāi)難性遺忘(catastrophic forgetting)不同,模型不會(huì)忘記以前學(xué)過(guò)的數(shù)據(jù),而是開始把模型的錯(cuò)誤想法曲解為現(xiàn)實(shí),并且還會(huì)強(qiáng)化自己對(duì)錯(cuò)誤想法的信念。

0458d26c-0c1d-11ee-962d-dac502259ad0.png

舉個(gè)例子,比如模型在一個(gè)包含100張貓圖片的數(shù)據(jù)集上進(jìn)行訓(xùn)練,其中有10張藍(lán)毛貓,90張黃毛貓。

模型學(xué)到的結(jié)論是,黃毛貓更普遍,同時(shí)會(huì)傾向于把藍(lán)毛貓想象的比實(shí)際更偏黃,所以在被要求生成新數(shù)據(jù)時(shí)可能會(huì)返回一些類似綠毛貓的結(jié)果。

而隨著時(shí)間的推移,藍(lán)毛的原始特征在多個(gè)訓(xùn)練epoch中逐漸被侵蝕,直接從藍(lán)色變成了綠色,最終再演變?yōu)辄S色,這種漸進(jìn)的扭曲和丟失少數(shù)特征的現(xiàn)象就是模型崩潰。

048caa74-0c1d-11ee-962d-dac502259ad0.png

具體來(lái)說(shuō),模型崩潰可以分為兩種情況:

1. 早期模型崩潰(early model collapse),模型開始丟失有關(guān)分布尾部的信息;

2. 后期模型崩潰(late model collapse),模型與原始分布的不同模式糾纏在一起,并收斂到一個(gè)與原始分布幾乎沒(méi)有相似之處的分布,往往方差也會(huì)非常小。

與此同時(shí),研究人員也總結(jié)出了造成模型崩潰的兩個(gè)主要原因:

其中,在更多的時(shí)候,我們會(huì)得到一種級(jí)聯(lián)效應(yīng),即單個(gè)不準(zhǔn)確的組合會(huì)導(dǎo)致整體誤差的增加。

1. 統(tǒng)計(jì)近似誤差(Statistical approximation error)

在重采樣的每一步中,信息中非零概率都可能會(huì)丟失,導(dǎo)致出現(xiàn)統(tǒng)計(jì)近似誤差,當(dāng)樣本數(shù)量趨于無(wú)限會(huì)逐漸消失,該誤差是導(dǎo)致模型崩潰的主要原因。

0498afea-0c1d-11ee-962d-dac502259ad0.png

2. 函數(shù)近似誤差(Functional approximation error)

該誤差主要源于模型中的函數(shù)近似器表達(dá)能力不足,或者有時(shí)在原始分布支持之外的表達(dá)能力太強(qiáng)。

眾所周知,神經(jīng)網(wǎng)絡(luò)在極限情況下是通用的函數(shù)近似器,但實(shí)際上這種假設(shè)并不總是成立的,特別是神經(jīng)網(wǎng)絡(luò)可以在原始分布的支持范圍之外引入非零似然。

舉個(gè)簡(jiǎn)單例子,如果我們?cè)噲D用一個(gè)高斯分布來(lái)擬合兩個(gè)高斯的混合分布,即使模型具有關(guān)于數(shù)據(jù)分布的完美信息,模型誤差也是不可避免的。

需要注意的是,在沒(méi)有統(tǒng)計(jì)誤差的情況下,函數(shù)近似誤差只會(huì)發(fā)生在第一代,一旦新的分布能被函數(shù)近似器描述出來(lái),就會(huì)在各代模型中保持完全相同的分布。

04a94d32-0c1d-11ee-962d-dac502259ad0.png

可以說(shuō),模型強(qiáng)大的近似能力是一把雙刃劍:其表達(dá)能力可能會(huì)抵消統(tǒng)計(jì)噪聲,從而更好地?cái)M合真實(shí)分布,但同樣也會(huì)使噪聲復(fù)雜化。

對(duì)此,論文共同一作Ilia Shumailov表示:「生成數(shù)據(jù)中的錯(cuò)誤會(huì)累積,最終迫使從生成數(shù)據(jù)中學(xué)習(xí)的模型進(jìn)一步錯(cuò)誤地理解現(xiàn)實(shí)。而且模型崩潰發(fā)生得非??欤P蜁?huì)迅速忘記最初學(xué)習(xí)的大部分原始數(shù)據(jù)?!?/p>

解決方法

好在,研究人員發(fā)現(xiàn),我們還是有辦法來(lái)避免模型崩潰的。

第一種方法是保留原始的、完全或名義上由人類生成的數(shù)據(jù)集的高質(zhì)量副本,并避免與AI生成的數(shù)據(jù)混合,然后定期使用這些數(shù)據(jù)對(duì)模型進(jìn)行重新訓(xùn)練,或者完全從頭訓(xùn)練一遍模型。

第二種避免回復(fù)質(zhì)量下降并減少AI模型中的錯(cuò)誤或重復(fù)的方法是將全新的、干凈的、由人類生成的數(shù)據(jù)集重新引入訓(xùn)練中。

為了防止模型崩潰,開發(fā)者需要確保原始數(shù)據(jù)中的少數(shù)派在后續(xù)數(shù)據(jù)集中得到公正的表征。

數(shù)據(jù)需要仔細(xì)備份,并覆蓋所有可能的邊界情況;在評(píng)估模型的性能時(shí),需要考慮到模型將要處理的數(shù)據(jù),甚至是最不可信的數(shù)據(jù)。

隨后,當(dāng)重新訓(xùn)練模型時(shí),還需要確保同時(shí)包括舊數(shù)據(jù)和新數(shù)據(jù),雖然會(huì)增加訓(xùn)練的成本,但至少在某種程度上有助于緩解模型崩潰。

不過(guò),這些方法必須要內(nèi)容制作者或AI公司采取某種大規(guī)模的標(biāo)記機(jī)制,來(lái)區(qū)分AI生成的內(nèi)容和人類生成的內(nèi)容。

目前,有一些開箱即用的解決方案,比如GPTZero,OpenAI Detector,或Writer在簡(jiǎn)單的文本上工作得很好。

04fa8ecc-0c1d-11ee-962d-dac502259ad0.png

然而,在一些特殊的文本中,這些方法并不能有效執(zhí)行。比如,在EPFL研究中有ChatGPT合成的10個(gè)總結(jié),而GPTZero只檢測(cè)到6個(gè)是合成的。

對(duì)此,研究人員通過(guò)微調(diào)自己的模型來(lái)檢測(cè)AI的使用,發(fā)現(xiàn)ChatGPT在編寫本文時(shí)是最常用的LLM。

對(duì)于構(gòu)建的檢測(cè)AI數(shù)據(jù)的方法,研究人員利用原始研究中的答案和用ChatGPT合成的數(shù)據(jù),訓(xùn)練了一個(gè)定制的「合成-真實(shí)分類器」。

然后用這個(gè)分類器來(lái)估計(jì)重新進(jìn)行的任務(wù)中合成答案的普遍性。

050ebece-0c1d-11ee-962d-dac502259ad0.png

具體來(lái)講,研究人員首先使用真正由人類撰寫的MTurk回應(yīng),和合成LLM生成的回應(yīng),來(lái)訓(xùn)練特定任務(wù)的「合成-真實(shí)分類器」。

其次,將這個(gè)分類器用于MTurk的真實(shí)回應(yīng)(其中眾包人可能使用,也可能沒(méi)有依賴LLM),以估計(jì)LLM使用的普遍性。

最后,研究者確認(rèn)了結(jié)果的有效性,在事后比較分析擊鍵數(shù)據(jù)與MTurk的回應(yīng)。

實(shí)驗(yàn)結(jié)果顯示,這個(gè)模型在正確識(shí)別人工智能文本方面高達(dá)99%的準(zhǔn)確率。

此外,研究人員用擊鍵數(shù)據(jù)驗(yàn)證了結(jié)果,發(fā)現(xiàn):

- 完全在MTurk文本框中寫的總結(jié)(不太可能是合成的)都被歸類為真實(shí)的;

- 在粘貼的總結(jié)中,提取式總結(jié)和LLM的使用有明顯區(qū)別。

0524540a-0c1d-11ee-962d-dac502259ad0.png

具體來(lái)講,人工智能生成的文本通常與原始總結(jié)幾乎沒(méi)有相似之處。這表明AI模型正在生成新文本,而不是復(fù)制和粘貼原始內(nèi)容的一部分。

「人類數(shù)據(jù)」很重要

現(xiàn)在,人們普遍擔(dān)心LLM將塑造人類的「信息生態(tài)系統(tǒng)」,也就是說(shuō),在線可獲得的大部分信息都是由LLM生成的。

使用綜合生成數(shù)據(jù)訓(xùn)練的LLM的性能明顯降低,就像Ilia Shumailov所稱會(huì)讓模型患上「癡呆癥」。

而這個(gè)問(wèn)題將會(huì)變得更加嚴(yán)重,因?yàn)殡S著LLM的普及,眾包工作者們已經(jīng)廣泛使用ChatGPT等各種LLM。

但對(duì)于人類內(nèi)容創(chuàng)作者來(lái)說(shuō),這是一個(gè)好消息,提高工作效率的同時(shí),還賺到了錢。

但是,若想挽救LLM不陷于崩潰的邊緣,還是需要真實(shí)的「人類數(shù)據(jù)」。

1. 人類數(shù)據(jù)在科學(xué)中仍然是至關(guān)重要的

2. 在合成數(shù)據(jù)上訓(xùn)練模型可能會(huì)帶來(lái)偏見和意識(shí)形態(tài)永久化

3. 隨著模型變得流行和更好/多模態(tài),采用率只會(huì)增加

總的來(lái)說(shuō),由人類生成的原始數(shù)據(jù)可以更好地表示世界,雖然也可能包含某些劣質(zhì)、概率較低的數(shù)據(jù);而生成式模型往往只會(huì)過(guò)度擬合流行數(shù)據(jù),并對(duì)概率更低的數(shù)據(jù)產(chǎn)生誤解。

那么,在充斥著生成式AI工具和相關(guān)內(nèi)容的未來(lái),人類制作的內(nèi)容或許會(huì)比今天更有價(jià)值,尤其是作為AI原始訓(xùn)練數(shù)據(jù)的來(lái)源。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41370

    瀏覽量

    302744
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    575

    瀏覽量

    11345
  • GPT
    GPT
    +關(guān)注

    關(guān)注

    0

    文章

    374

    瀏覽量

    16989

原文標(biāo)題:GPT-5將死于GPT-4背刺?牛津劍橋研究警告:AI訓(xùn)AI成「劇毒」,會(huì)讓模型崩潰!

文章出處:【微信號(hào):AI智勝未來(lái),微信公眾號(hào):AI智勝未來(lái)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI模型小龍蝦-OpenClaw-0基礎(chǔ)從入門到實(shí)戰(zhàn)

    ,OpenClaw 就能自動(dòng)完成底層知識(shí)的索引與掛載。這種適用性非技術(shù)人員也能零本享受到大模型結(jié)合私有數(shù)據(jù)帶來(lái)的紅利。 三、 創(chuàng)意激發(fā)與多模態(tài)內(nèi)容半自動(dòng)化生產(chǎn)場(chǎng)景 在自媒體時(shí)代,一個(gè)好的點(diǎn)子往往需要
    發(fā)表于 05-06 16:04

    [完結(jié)15章]Java轉(zhuǎn) AI高薪領(lǐng)域必備-從0到1打通生產(chǎn)級(jí)AI Agent開發(fā)

    拒絕原地踏步:Java工程師AI轉(zhuǎn)型的底層技術(shù)破局之道 在軟件工程范式被大語(yǔ)言模型(LLM)徹底顛覆的今天,傳統(tǒng)的“Java CRUD boy”正面臨著前所未有的生存危機(jī)。當(dāng)業(yè)務(wù)邏輯的生成可以被
    發(fā)表于 04-30 13:46

    AI模型微調(diào)企業(yè)項(xiàng)目實(shí)戰(zhàn)課

    的附加參數(shù),就能達(dá)到甚至超越全量微調(diào)的效果,單卡微調(diào)百億參數(shù)大模型成為現(xiàn)實(shí)。 第三步:對(duì)齊與評(píng)估——確保輸出安全可控 微調(diào)后的模型可能會(huì)產(chǎn)生價(jià)值觀偏移或越界回答。因此,實(shí)戰(zhàn)的最后一步
    發(fā)表于 04-16 18:48

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    Transformer 入門:從零理解 AI模型的核心原理

    ,模型更容易學(xué)習(xí) 直觀理解 css 體驗(yàn)AI代碼助手 代碼解讀 復(fù)制代碼 ?? 溫度計(jì)類比: 原始點(diǎn)積就像測(cè)量火山溫度,數(shù)值太極端 縮放后就像測(cè)量室溫,數(shù)值更合理 ? 考試分?jǐn)?shù)類比: 原始:[0
    發(fā)表于 02-10 16:33

    使用NORDIC AI的好處

    不依賴持續(xù)聯(lián)網(wǎng),整體系統(tǒng)可靠性更高。[Edge AI 概述; Nordic Edge AI 技術(shù)頁(yè)] 覆蓋從“小 MCU”到“高性能 SoC”的完整產(chǎn)品線 Neuton 模型 :超小模型
    發(fā)表于 01-31 23:16

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個(gè)AI模型怎么搞,知識(shí)盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片

    解決人類智能無(wú)法解決的復(fù)雜問(wèn)題。實(shí)現(xiàn)AGI的AI相關(guān)研究機(jī)構(gòu)和企業(yè)的主要目標(biāo)。 一、生成式AI點(diǎn)燃AGI之火 CHatGPT就是已經(jīng)取得成功的生成式AI技術(shù)。很多人都充滿了信心,相信不
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI的科學(xué)應(yīng)用

    和關(guān)聯(lián)性 AI驅(qū)動(dòng)科學(xué):研究和模擬人類思維和認(rèn)識(shí)過(guò)程。 本章節(jié)作者為我們講解了第五范式,介紹了科學(xué)發(fā)現(xiàn)的一般方法和流程等。一、科學(xué)發(fā)現(xiàn)的5個(gè)范式 第一范式:產(chǎn)生于公元1000年左右的阿拉伯世界和歐洲
    發(fā)表于 09-17 11:45

    皓麗全球首款四攝AI會(huì)議平板:AI全視之眼 + AI會(huì)模型雙加持

    2025年,智能會(huì)議設(shè)備市場(chǎng)迎來(lái)里程碑式突破——連續(xù)多年蟬聯(lián)電商銷量冠軍的皓麗(Horion)正式推出全球首款四攝AI會(huì)議平板,以“AI全視之眼+AI會(huì)
    的頭像 發(fā)表于 09-10 12:36 ?1161次閱讀
    皓麗全球首款四攝<b class='flag-5'>AI</b>會(huì)議平板:<b class='flag-5'>AI</b>全視之眼 + <b class='flag-5'>AI</b>智<b class='flag-5'>會(huì)</b>大<b class='flag-5'>模型</b>雙加持

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+可期之變:從AI硬件到AI濕件

    生物化學(xué)計(jì)算機(jī),它通過(guò)離子、分子間的相互作用來(lái)進(jìn)行復(fù)雜的并行計(jì)算。因而未來(lái)可期的前景是AI硬件將走向AI濕件。 根據(jù)研究,估算出大腦的功率是20W,在進(jìn)行智力活動(dòng)時(shí),其功率會(huì)增大到25
    發(fā)表于 09-06 19:12

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+內(nèi)容總覽

    ,其中第一章是概論,主要介紹大模型浪潮下AI芯片的需求與挑戰(zhàn)。第二章和第三章分別介紹實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法和架構(gòu)。以及一些新型的算法和思路。第四章是全面介紹半導(dǎo)體芯產(chǎn)業(yè)的前沿技術(shù),包括新型晶體管
    發(fā)表于 09-05 15:10

    AI的未來(lái),屬于那些既能寫代碼,又能焊電路的“雙棲人才”

    “部署能力”:如何10億參數(shù)的模型跑在單片機(jī)上?如何在攝像頭模組內(nèi)集成AI識(shí)別功能?如何車規(guī)級(jí)芯片既算得快又能量產(chǎn)?這些問(wèn)題,算法科學(xué)家解決不了,得靠軟硬一體的工程師團(tuán)隊(duì)。我們?cè)诂F(xiàn)
    發(fā)表于 07-30 16:15

    【書籍評(píng)測(cè)活動(dòng)NO.64】AI芯片,從過(guò)去走向未來(lái):《AI芯片:科技探索與AGI愿景》

    DeepSeek,大模型應(yīng)用密集出現(xiàn)、頻繁升級(jí),這作者意識(shí)到有必要撰寫一本新的AI芯片圖書,以緊跟時(shí)代步伐、介紹新興領(lǐng)域和最新動(dòng)向。 這就是《AI芯片:前沿技術(shù)與創(chuàng)新未來(lái)》的姊妹篇—
    發(fā)表于 07-28 13:54
    白沙| 宁武县| 汤阴县| 长汀县| 德江县| 慈溪市| 稷山县| 赤城县| 武穴市| 南昌市| 大名县| 四子王旗| 鹤岗市| 博爱县| 平江县| 陵川县| 宁武县| 韶关市| 汉中市| 宜兴市| 都安| 南京市| 鄂伦春自治旗| 定结县| 儋州市| 玉树县| 天长市| 霸州市| 香港 | 安国市| 南宁市| 阿拉尔市| 洪江市| 水城县| 宁波市| 彭泽县| 广汉市| 神池县| 泰和县| 井冈山市| 库伦旗|