日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

新火種AI|2024乍到,會(huì)成為小模型的當(dāng)打之年嗎?

新火種 ? 來(lái)源:新火種 ? 作者:新火種 ? 2024-01-10 22:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群


作者:小巖

編輯:美美

乘著ChatGPT爆火的東風(fēng),2023年成為了當(dāng)之無(wú)愧的“大模型爆發(fā)之年”。跟隨ChatGPT的腳步,諸多大廠和知名企業(yè)推出了自己的AI大模型。也正因此,大模型賽道的競(jìng)爭(zhēng)變得異常激烈,燒錢的勢(shì)頭也變得異常兇猛。

不過(guò),這樣的趨勢(shì)很可能在2024年產(chǎn)生變化。每個(gè)事物的發(fā)展都要經(jīng)歷“產(chǎn)生,發(fā)展,高潮,低谷”的階段,已經(jīng)在2023年大放異彩,涌現(xiàn)無(wú)數(shù)高光時(shí)刻的大模型很可能在2024年漸漸冷卻,褪掉光環(huán),而小模型,則有可能成為今年的破局之道。

“大模型雖然亮眼,但企業(yè)對(duì)這些技術(shù)的采用幾乎沒(méi)有實(shí)質(zhì)性的增長(zhǎng)”。

眾所周知,在高新技術(shù)和燒錢測(cè)試的加持下,大模型產(chǎn)品的表現(xiàn)變得十分突出,整個(gè)賽道也卷的出奇。但可惜的是,這些花大力氣砸出來(lái)的優(yōu)秀大模型產(chǎn)品很難成功變現(xiàn)。

根據(jù)印度IT巨頭Infosys的最新發(fā)現(xiàn),只有6 %的歐洲公司通過(guò)生成式AI用例創(chuàng)造了商業(yè)價(jià)值。麥肯錫也在2023年的一份報(bào)告中得出結(jié)論,“盡管生成式AI的使用可能會(huì)刺激其他人工智能工具的采用,但我們認(rèn)為,企業(yè)對(duì)這些技術(shù)的采用幾乎沒(méi)有實(shí)質(zhì)性的增長(zhǎng)?!?/p>

而資本市場(chǎng)對(duì)于大模型AI的態(tài)度也不樂(lè)觀。從融資規(guī)模來(lái)看,生成式AI的投資浪潮是一次“短暫繁榮”,盡管頭部以及率先搶占先機(jī)的AI公司獲得了不少資本的青睞,但后續(xù)的AI公司如果想要收獲資金,并不容易。根據(jù)Crunchbase數(shù)據(jù)顯示,2023 年,人工智能獨(dú)角獸公司的融資大幅下降,僅為 2021 年市場(chǎng)高峰時(shí)的25 %左右;全球最活躍的9大 VC 在AI獨(dú)角獸公司的投資也是大幅下降。

究其原因,這并不難理解。潮水退去,方知誰(shuí)在裸泳。投資者都是趨利避害的,自然想看到自己投資的AI公司產(chǎn)出盡可能多的利潤(rùn)。在這種情況下,針對(duì)AI的投資泡沫會(huì)越來(lái)越少,據(jù)此,AI公司試錯(cuò)的成本將大大提高。

大模型發(fā)展即將受阻,小模型能否順勢(shì)而為,迎來(lái)自己的井噴元年?

在這種情況下,AI模型需要朝著效率更高,成本更低的方向去發(fā)展。從這個(gè)角度去說(shuō),小模型很可能比大模型更實(shí)用,更方便。

Snorkel AI曾做過(guò)一個(gè)試驗(yàn),分別用GPT-3微調(diào)和自己搭建的小模型來(lái)訓(xùn)練一個(gè)法律領(lǐng)域的垂直模型。GPT-3的微調(diào)和搭建成本是7418美元,10000推理的花費(fèi)是173美元,而自己搭建的小模型成本僅為1915美元,10000次推理也只是花費(fèi)了0.26美元。從正確率來(lái)看,GPT-3微調(diào)的垂直模型正確率為71.4 %,小模型則為71.3 %。

值得一提的是,GPT-3的參數(shù)量很大,是小模型的1400倍。我們當(dāng)然不能因?yàn)镚PT-3微調(diào)的正確率與小模型的正確率相似就妄下結(jié)論,認(rèn)為“參數(shù)量沒(méi)用”。不過(guò),這或許就是“殺雞焉用牛刀”的道理,就像《華爾街日?qǐng)?bào)》提到的那句玩笑,用GPT-4總結(jié)電子郵件就像“讓蘭博基尼送披薩”。畢竟,在很多場(chǎng)景下,用戶需要的并沒(méi)有那么多。

目前,國(guó)內(nèi)的AI領(lǐng)域也在面臨相同的狀況。

如今,國(guó)內(nèi)已經(jīng)發(fā)布的所謂“大模型”超過(guò)200個(gè),“百模大戰(zhàn)”進(jìn)行的如火如荼。而處于頭部的幾個(gè)大模型都曾宣稱自己的參數(shù)規(guī)模超千億級(jí)別,有的甚至達(dá)到了萬(wàn)億的規(guī)模。

但規(guī)模只要夠大,就一定夠好嗎?未必。百度的李彥宏曾經(jīng)說(shuō)過(guò),“100多個(gè)大模型浪費(fèi)社會(huì)資源……尤其在中國(guó)算力還受限制情況下,企業(yè)應(yīng)該去探索各行各業(yè)的應(yīng)用結(jié)合,全新的 APP產(chǎn)品可能性等?!?/p>

事實(shí)上,與李彥宏持有相同觀點(diǎn)的人并不在少數(shù)。相較于要把AI模型的規(guī)模不斷做大這件事,大家更應(yīng)該關(guān)注如何將模型更好的應(yīng)用到實(shí)處。不是大模型做不起,而是小模型更具性價(jià)比。

做小模型的本質(zhì),其實(shí)是在做離用戶更近的模型。

更重要的是,從某種層面來(lái)說(shuō),更好操作,更低成本的小模型或許更能匹配C端用戶的核心訴求。

大模型看似高大上,但卻存在成本高,個(gè)性化不足的問(wèn)題。如果大模型可以變小,甚至直接走進(jìn)移動(dòng)端,將模型塞進(jìn)手機(jī),智能汽車,機(jī)器人等設(shè)備,那么一定會(huì)大大提高C端用戶的黏著度。特別是從創(chuàng)業(yè)角度來(lái)看,搭建離用戶更近的模型自然也更有生存空間,因?yàn)樗麄冸x用戶更近。

事實(shí)上,很多企業(yè)已經(jīng)將這樣的策略提上了日程。有媒體報(bào)道,早在2022年初,阿里巴巴達(dá)摩院,上海浙江大學(xué)高等研究院,以及上海人工智能實(shí)驗(yàn)室的聯(lián)合研究團(tuán)隊(duì)通過(guò)蒸餾壓縮和參數(shù)共享等技術(shù)手段,將3.4億參數(shù)的M6模型壓縮到了百萬(wàn)參數(shù),其規(guī)模只有以大模型的三十分之一,卻保留了大模型90 %以上的性能。當(dāng)然,2022年的3.4億,較今天的大模型規(guī)模來(lái)看不算太大,但這個(gè)舉動(dòng)無(wú)疑為“大規(guī)模瘦身”開(kāi)了一個(gè)好頭。

2023年初,關(guān)于AI大模型的競(jìng)爭(zhēng)逐漸激烈,局面逐漸焦灼,最終演變成了一場(chǎng)聲勢(shì)浩大的模型競(jìng)賽。如今,潮水褪去,在耗費(fèi)了大量金錢,人力,時(shí)間成本之后,愈來(lái)愈多的AI公司悟出了一個(gè)道理:如何“變大”并不是關(guān)鍵,關(guān)鍵在于要如何“既大又好”,更重要的是,當(dāng)大模型進(jìn)入應(yīng)用環(huán)節(jié),如何該做到“以小馭大。

如同區(qū)塊鏈行業(yè)一樣,野蠻生長(zhǎng)之后勢(shì)必會(huì)迎來(lái)監(jiān)管的壓力,AI也將面臨同樣的狀況。如今,隨著AI影響力的增強(qiáng),相關(guān)的問(wèn)題也開(kāi)始凸顯譬如Midjourney + Elevenlabs 生成的假新聞就引起過(guò)極大的影響。

此外,AI大模型的推進(jìn)將消耗掉大量的資源。有新聞報(bào)道,到2027年,全球的AI需求可能會(huì)消耗掉66億立方米的水資源,幾乎相當(dāng)于美國(guó)華盛頓州全年的取水量。AI對(duì)環(huán)境和能源可能造成的影響會(huì)對(duì)AI行業(yè)造成一定的經(jīng)濟(jì)壓力和政治壓力。到了那時(shí),如何用更少的數(shù)據(jù),更少的能源訓(xùn)練出更好用的模型,就成為了未來(lái)的重中之重。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41392

    瀏覽量

    302753
  • 人工智能
    +關(guān)注

    關(guān)注

    1821

    文章

    50378

    瀏覽量

    267104
  • ChatGPT
    +關(guān)注

    關(guān)注

    31

    文章

    1603

    瀏覽量

    10404
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3807

    瀏覽量

    5282
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI模型小龍蝦-OpenClaw-0基礎(chǔ)從入門實(shí)戰(zhàn)

    “長(zhǎng)尾、輕量、多變”的部門級(jí)業(yè)務(wù)流場(chǎng)景時(shí),具有無(wú)可比擬的適用效率和性價(jià)比。 總結(jié) “AI模型小龍蝦 OpenClaw”之所以能成為零基礎(chǔ)人群的首選,根本原因在于它精準(zhǔn)卡位了非技術(shù)崗提效、私有
    發(fā)表于 05-06 16:04

    AI Ceph 分布式存儲(chǔ)教程資料大模型學(xué)習(xí)資料2026

    。如何構(gòu)建高性能、高吞吐、高可擴(kuò)展的 AI 分布式存儲(chǔ)系統(tǒng),已成為解鎖大模型基建能力的核心科技命題。這不僅關(guān)乎數(shù)據(jù)存得下、讀得快,更直接決定了 GPU 集群的利用率與模型訓(xùn)練的最終效率
    發(fā)表于 05-01 17:35

    HM博學(xué)谷狂野AI模型第四期

    在生成式 AI 浪潮席卷全球的今天,大語(yǔ)言模型(LLM)已成為技術(shù)圈的顯學(xué)。然而,絕大多數(shù)開(kāi)發(fā)者仍停留在“調(diào)用者”的層面——通過(guò) API 發(fā)送 Prompt,接收文本回復(fù)。這種“黑盒”式的應(yīng)用開(kāi)發(fā)
    發(fā)表于 05-01 17:30

    黑馬-Java+AI新版V16零基礎(chǔ)就業(yè)班百度云網(wǎng)盤下載+Java+AI全棧開(kāi)發(fā)工程師

    ,要么主動(dòng)將 AI 能力深度融入 Java 技術(shù)體系,成為具備“傳統(tǒng)架構(gòu) + 智能增強(qiáng)”雙重競(jìng)爭(zhēng)力的融合型工程師。Java+AI 融合開(kāi)發(fā)并非簡(jiǎn)單的 SDK 調(diào)用,而是一套從架構(gòu)模式、數(shù)據(jù)流設(shè)計(jì)
    發(fā)表于 05-01 11:29

    [完結(jié)15章]Java轉(zhuǎn) AI高薪領(lǐng)域必備-從01通生產(chǎn)級(jí)AI Agent開(kāi)發(fā)

    開(kāi)發(fā)者無(wú)可替代的底座優(yōu)勢(shì)。 二、 擁抱新范式:從同步阻塞到流式與反應(yīng)式架構(gòu) 傳統(tǒng)的Java Web開(kāi)發(fā)多基于HTTP的同步請(qǐng)求-響應(yīng)模型,但在與AI模型交互時(shí),這種模型
    發(fā)表于 04-30 13:46

    Java轉(zhuǎn) AI高薪領(lǐng)域必備 從01通生產(chǎn)級(jí)AI Agent開(kāi)發(fā) 教程資料

    砍向這些高替代率、低附加值的基礎(chǔ)開(kāi)發(fā)崗位。繼續(xù)在CRUD里死磕,就如同在一條通脹率遠(yuǎn)超收益率的賽道上狂奔,投入的每一分精力都在經(jīng)歷邊際收益遞減。 二、 AI Agent的商業(yè)破局:從“代碼執(zhí)行者”
    發(fā)表于 04-29 17:08

    AI模型微調(diào)企業(yè)項(xiàng)目實(shí)戰(zhàn)課

    業(yè)、守規(guī)矩、可完全掌控的專屬 AI 底座,已經(jīng)成為頭部企業(yè)的隱性共識(shí)。 二、 核心破局:微調(diào)——用極低成本撬動(dòng)專業(yè)能力 很多企業(yè)對(duì)“自主訓(xùn)練大模型”存在誤解,認(rèn)為這需要像頂級(jí)科技巨頭那樣,耗費(fèi)千萬(wàn)算力
    發(fā)表于 04-16 18:48

    NVIDIA Jetson模型賦能AI在邊緣端落地

    開(kāi)源生成式 AI 模型不再局限于數(shù)據(jù)中心,而是開(kāi)始深入現(xiàn)實(shí)世界的各種機(jī)器中。從 Orin Thor,NVIDIA Jetson 系列正在成為
    的頭像 發(fā)表于 03-16 16:27 ?685次閱讀
    NVIDIA Jetson<b class='flag-5'>模型</b>賦能<b class='flag-5'>AI</b>在邊緣端落地

    基于ETAS嵌入式AI工具鏈將機(jī)器學(xué)習(xí)模型部署量產(chǎn)ECU

    AI在汽車行業(yè)的應(yīng)用日益深化,如何將機(jī)器學(xué)習(xí)領(lǐng)域的先進(jìn)模型(如虛擬傳感器)集成ECU軟件中,已成為業(yè)界面臨的核心挑戰(zhàn)。
    的頭像 發(fā)表于 12-24 10:55 ?6426次閱讀
    基于ETAS嵌入式<b class='flag-5'>AI</b>工具鏈將機(jī)器學(xué)習(xí)<b class='flag-5'>模型</b>部署<b class='flag-5'>到</b>量產(chǎn)ECU

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個(gè)AI模型怎么搞,知識(shí)盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片AGI芯片

    、現(xiàn)階段更智能、更接近AGI的6中算法與模型 1、MoE模型 MoE模型作為Transfomer模型的后繼者,代表著AI技術(shù)的一項(xiàng)重大創(chuàng)新和
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+可期之變:從AI硬件AI濕件

    的不同。隨著AI熱潮的興起,大腦的抽象模型已被提煉成各種的AI算法,并使用半導(dǎo)體芯片技術(shù)加以實(shí)現(xiàn)。 而大腦是一個(gè)由無(wú)數(shù)神經(jīng)元通過(guò)突觸連接而成的復(fù)雜網(wǎng)絡(luò),是極其復(fù)雜和精密的。大腦在本質(zhì)上就是一臺(tái)濕潤(rùn)的軟組織
    發(fā)表于 09-06 19:12

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)

    在人工智能大模型重塑教育與社會(huì)發(fā)展的當(dāng)下,無(wú)論是探索未來(lái)職業(yè)方向,還是更新技術(shù)儲(chǔ)備,掌握大模型知識(shí)都已成為新時(shí)代的必修課。從職場(chǎng)上輔助工作的智能助手,
    發(fā)表于 07-04 11:10

    如何賦能醫(yī)療AI模型應(yīng)用?

    “百模大戰(zhàn)”。不僅如此,這些通用AI模型還逐漸滲透各個(gè)垂直行業(yè)中,其中生命科學(xué)和醫(yī)療健康行業(yè)成為了拓展速度較快的一個(gè)領(lǐng)域。從2023年2月至10月初,國(guó)內(nèi)市場(chǎng)上
    的頭像 發(fā)表于 05-07 09:36 ?821次閱讀
    如何賦能醫(yī)療<b class='flag-5'>AI</b>大<b class='flag-5'>模型</b>應(yīng)用?
    乐安县| 蒙城县| 平陆县| 始兴县| 本溪| 吉木萨尔县| 金平| 新沂市| 连城县| 兖州市| 平利县| 神农架林区| 淮安市| 泰来县| 沈丘县| 深水埗区| 修水县| 利川市| 交城县| 遵义县| 沭阳县| 凤山市| 开远市| 潼南县| 临沧市| 赤峰市| 桂平市| 华亭县| 南澳县| 通州区| 古浪县| 武鸣县| 寿宁县| 泗洪县| 锦屏县| 海林市| 东阳市| 洛浦县| 乌什县| 琼海市| 巨野县|