日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型訓(xùn)練:開源數(shù)據(jù)與算法的機遇與挑戰(zhàn)分析

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2025-02-20 10:40 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

最近,開源中國 OSCHINA、Gitee 與 Gitee AI 聯(lián)合發(fā)布了《2024 中國開源開發(fā)者報告》。

報告聚焦 AI 大模型領(lǐng)域,對過去一年的技術(shù)演進動態(tài)、技術(shù)趨勢、以及開源開發(fā)者生態(tài)數(shù)據(jù)進行多方位的總結(jié)和梳理。

在第二章《TOP 101-2024 大模型觀點》中,蘇州盛派網(wǎng)絡(luò)科技有限公司創(chuàng)始人兼首席架構(gòu)師蘇震巍分析了大模型訓(xùn)練過程中開源數(shù)據(jù)集和算法的重要性和影響,分析其在促進 AI 研究和應(yīng)用中的機遇,并警示相關(guān)的風(fēng)險與挑戰(zhàn)。

全文如下:

大模型訓(xùn)練中的開源數(shù)據(jù)和算法:機遇及挑戰(zhàn)

隨著人工智能(AI)技術(shù)的迅猛發(fā)展,尤其是大模型(如 GPT、OpenAI o1、Llama 等)的崛起,開源數(shù)據(jù)和算法在大模型訓(xùn)練中的重要性愈發(fā)顯著。開源數(shù)據(jù)集和算法不僅推動了 AI 研究的進步,也在應(yīng)用層面帶來了深遠的影響。然而,伴隨這些機遇的還有諸多風(fēng)險與挑戰(zhàn),如數(shù)據(jù)質(zhì)量、版權(quán)問題和算法透明性等。本文將淺析大模型訓(xùn)練過程中開源數(shù)據(jù)集和算法的重要性和影響,分析其在促進 AI 研究和應(yīng)用中的機遇,并警示相關(guān)的風(fēng)險與挑戰(zhàn)。

任何方案都具有兩面性和在特殊環(huán)境下的討論的意義和前提,因此,本文不討論開源或?qū)α⒚妫ㄩ]源)的絕對取舍問題,僅對開源的有利之處加以淺析。

重要的開源數(shù)據(jù)集和算法在大模型訓(xùn)練中的角色

開源數(shù)據(jù)集是大模型訓(xùn)練的基石。沒有高質(zhì)量的數(shù)據(jù),大模型的性能和應(yīng)用場景將受到極大限制。ImageNet、COCO、Wikipedia 和 Common Crawl 是非常重要一批高質(zhì)量的開源數(shù)據(jù)集。以下是這幾個數(shù)據(jù)集在大模型訓(xùn)練歷程中的重要角色。

ImageNet:ImageNet 是計算機視覺領(lǐng)域最著名的開源數(shù)據(jù)集之一,包含數(shù)百萬張帶有標(biāo)簽的圖像。它為圖像分類、物體檢測等任務(wù)提供了豐富的數(shù)據(jù)資源,使得模型能夠在視覺理解方面取得突破。它由普林斯頓大學(xué)的計算機科學(xué)家李飛飛(Fei-Fei Li)及其團隊在 2009 年創(chuàng)建。ImageNet 包含超過 1400 萬張圖像,這些圖像分為超過 2 萬個類別,每個類別都與 WordNet 中的一個詞條對應(yīng)。每個類別的圖像數(shù)量從數(shù)百到數(shù)千不等。ImageNet 每年都會舉辦一個大型的視覺識別競賽,即 ImageNet Large Scale Visual Recognition Challenge (ILSVRC)。該競賽吸引了全球眾多研究團隊參與,并在推動深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)技術(shù)的發(fā)展中發(fā)揮了重要作用。今年的諾貝爾物理學(xué)獎得主之一 Geoffrey Hinton 帶領(lǐng)的團隊成員 AlexNet 在 2012 年的 ILSVRC 中取得了顯著的成功,使得深度學(xué)習(xí)在計算機視覺領(lǐng)域迅速崛起。也為如今我們看到的種類繁多的視覺大模型(VLMs)開啟了新的篇章。

COCO(Common Objects in Context):COCO 數(shù)據(jù)集由微軟于 2014 年發(fā)布,涵蓋了數(shù)十萬張日常生活中的圖像,并附有詳細的標(biāo)注信息。雖然 COCO 對比 ImageNet 具有更少的類別,但每一個類別擁有更多的實例,假定這能幫助復(fù)雜模型提高物體定位的準(zhǔn)確率。它的設(shè)計初衷適用于具有上下文信息的圖片中的物體檢測和分割,目前在目標(biāo)檢測、分割等任務(wù)中發(fā)揮了重要作用,推動了計算機視覺技術(shù)的進步。

Wikipedia 和 Common Crawl:Wikipedia 是一個由全球用戶共同編輯和維護的高質(zhì)量在線百科全書,以文字為主,知識高度結(jié)構(gòu)化,Common Crawl 是一個非營利組織,定期抓取互聯(lián)網(wǎng)公開網(wǎng)頁,生成大量的網(wǎng)頁數(shù)據(jù)集,可提供大量的互聯(lián)網(wǎng)用戶知識及非結(jié)構(gòu)化數(shù)據(jù)。他們的共同點是為模型訓(xùn)練提供了充沛的文字素材。這些大型文本數(shù)據(jù)集為自然語言處理(NLP)模型的訓(xùn)練提供了豐富的語料庫。像 GPT 這樣的語言模型正是通過大規(guī)模爬取和處理這些數(shù)據(jù)集,才能在文本生成和理解方面表現(xiàn)出色。

開源算法的角色

開源算法是 AI 研究和應(yīng)用的核心驅(qū)動力。開源算法的共享和復(fù)用使得研究者和開發(fā)者能夠在前人工作的基礎(chǔ)上迅速迭代和創(chuàng)新。以下是一些在這一輪 AI 大模型浪潮中扮演重要角色的的開源算法及其在大模型訓(xùn)練中的角色:

TensorFlow 和 PyTorch:這兩個深度學(xué)習(xí)框架是當(dāng)前最流行的開源工具,提供了強大的計算能力和靈活的模型構(gòu)建方式。它們?yōu)榇竽P偷挠?xùn)練和部署提供了基礎(chǔ)設(shè)施支持,使得復(fù)雜的 AI 模型得以實現(xiàn)。

Transformer 架構(gòu):Transformer 架構(gòu)是一種用于處理序列數(shù)據(jù)的開源算法,廣泛應(yīng)用于 NLP 任務(wù),也是作為這一輪 AI 浪潮推動者 GPT 模型的基礎(chǔ)算法?;?Transformer 的模型,如 BERT 和 GPT,已經(jīng)成為自然語言理解和生成的事實標(biāo)準(zhǔn)。

GAN(生成對抗網(wǎng)絡(luò)):GAN 是一種用于生成數(shù)據(jù)的開源算法,廣泛應(yīng)用于圖像生成、數(shù)據(jù)增強等領(lǐng)域。它通過生成器和判別器的對抗訓(xùn)練,能夠生成高質(zhì)量的圖像和其他數(shù)據(jù)。

除此以外,如果把 Pre-Train 之后的微調(diào)(Fine-Tuning)等環(huán)節(jié)也看做廣義 “訓(xùn)練” 的一部分,還有一系列開源方法及配套的工具,例如比較常見的 LoRA(Low-Rank Adaptation of Large Language Models)。

機遇

從上述開源數(shù)據(jù)和算法在模型訓(xùn)練過程中所扮演的角色可以看到,大模型訓(xùn)練中的開源數(shù)據(jù)和算法為 AI 研究和應(yīng)用帶來了諸多機遇,在加速創(chuàng)新、促進合作、資源共享等方便提供了廣泛而可靠的基礎(chǔ)條件和資源,圍繞這些資源,技術(shù)人員得以進行更加開放的交流和合作,并展開更加深入的教育和培訓(xùn),以此不斷提升整個行業(yè)人才的技術(shù)水平。

由于目前主流的模型訓(xùn)練算法都需要依靠對訓(xùn)練數(shù)據(jù)(樣本)的統(tǒng)計(概率),因此,開放的數(shù)據(jù)和算法能夠在更大程度上確保樣本的質(zhì)量,從而避免更多未知的風(fēng)險。例如就在 2024 年 12 月 1 日,用戶發(fā)現(xiàn) ChatGPT 在需要輸出 “David Mayer” 這個名字的時候會突然提示拒絕:

此事件一度被解讀為 GPT 模型在訓(xùn)練過程中被植入了特定的樣本或算法,以避免討論特定的人名。雖然后續(xù)的一系列測試表明,這種限制似乎只存在于 ChatGPT 產(chǎn)品中,通過 OpenAI 對外提供的模型接口并不會觸發(fā)這樣的屏蔽機制。

OpenAI 在隨后周二(12 月 3 日)立即確認 “David Mayer” 這個名字已經(jīng)被內(nèi)部隱私工具標(biāo)記,其在一份聲明中說:“可能有些情況下,ChatGPT 不提供關(guān)于人們的某些信息,以保護他們的隱私。” 公司不會提供有關(guān)工具或流程的更多細節(jié)。

無論真實的原因是什么,這個事件是一個反例,其顯示了封閉的系統(tǒng)以及中心化的模型提供者所具備的風(fēng)險,也說明了不透明的處理環(huán)節(jié)對模型的輸出結(jié)果帶來更多的不確定性。類似的拒絕服務(wù)也是在模型服務(wù)過程中表現(xiàn)出來的另外一種偏見(Bias)行為,而偏見也是目前所有模型都在極力避免的情形,要進一步解決這個問題,使用更加開放的數(shù)據(jù)集和算法是一種更負責(zé)任的做法。

種種事件的發(fā)生并不是壞事,這是所有技術(shù)在發(fā)展過程中接受實踐檢驗的必經(jīng)之路,通過種種嘗試和反饋,目前對于開源數(shù)據(jù)集和算法的呼聲正在越來越高漲。

除了對于訓(xùn)練集和算法的開源之外,對于模型的 “開源” 定義也經(jīng)受著各種議論。筆者比較認同的觀點是:開源模型不應(yīng)該只把模型文件公布出來,同時應(yīng)該把對應(yīng)的訓(xùn)練集和算法進行公開,并能夠提供相應(yīng)的訓(xùn)練流程,是所有人能夠?qū)Y(jié)果進行重現(xiàn)。這好比我們討論開源項目的時候,通常不會指我們只能夠下載某個應(yīng)用程序,而是我們能夠查看源碼,甚至通過修改源碼編譯出自己想要的應(yīng)用程序。

在今年 10 月 29 日,開放源代碼促進會(Open Source Initiative,OSI)發(fā)布了關(guān)于 “開源 AI 定義(OSAID)”1.0 版本,其規(guī)定了 AI 大模型若要被視為開源必須具備三個三個:訓(xùn)練數(shù)據(jù)透明性、完整代碼、模型參數(shù)。雖然對比目前市面上的 “開源模型”,少有能力較高的模型能完全符合,但這種聲明本身就是一種開源開放態(tài)度的彰顯。

我相信,在更加透明的數(shù)據(jù)集和算法的支持下,模型將在可控性上獲得更好的發(fā)展機遇,相關(guān)的技術(shù)社區(qū)也將迎來更大的發(fā)展。

挑戰(zhàn)

當(dāng)然,大模型訓(xùn)練中的開源數(shù)據(jù)和算法也伴隨著一定的風(fēng)險和挑戰(zhàn),這些風(fēng)險需要在模型開發(fā)和應(yīng)用的過程中被認真對待和解決。例如前文提到的 “偏見” 問題,以及數(shù)據(jù)質(zhì)量問題,可能是最顯著的風(fēng)險。由于開源數(shù)據(jù)集質(zhì)量參差不齊,雖然一些廣泛使用的數(shù)據(jù)集如開頭介紹的 ImageNet 和 COCO 被認為是高質(zhì)量的數(shù)據(jù)集,但其他開源數(shù)據(jù)集可能包含噪聲、錯誤標(biāo)簽和不完整的信息。這種數(shù)據(jù)質(zhì)量問題會直接影響模型的訓(xùn)練效果,導(dǎo)致模型性能的下降,甚至可能產(chǎn)生錯誤的預(yù)測結(jié)果。

除此以外,在 GPT 爆火之后,由于相關(guān)法律和政策的滯后,已經(jīng)有大量大模型生成的文字、圖像、視頻、音頻內(nèi)容被發(fā)布于互聯(lián)網(wǎng),當(dāng)這些內(nèi)容再次被作為開放數(shù)據(jù)被采集,并再次進行訓(xùn)練,可能會帶來更大的數(shù)據(jù)質(zhì)量問題。因此,筆者認為對 AI 生成的觀點進行標(biāo)注再發(fā)布是一種更加負責(zé)任的做法,當(dāng)然,在實際操作過程中,要實現(xiàn)仍然有極大的難度。

開源數(shù)據(jù)集的版權(quán)問題也是一個需要重視的風(fēng)險。盡管開源數(shù)據(jù)集通常是公開的,但其使用仍然受版權(quán)法的約束。未經(jīng)授權(quán)使用受版權(quán)保護的數(shù)據(jù),可能會導(dǎo)致法律糾紛。此外,某些數(shù)據(jù)集可能包含敏感信息,涉及個人隱私甚至危害公共安全。

在使用這些數(shù)據(jù)時,必須遵守相關(guān)的隱私保護法規(guī),如歐盟的《通用數(shù)據(jù)保護條例》(GDPR)和美國的《健康保險可攜性和責(zé)任法案》(HIPAA)。在實際操作過程中,出于成本、工藝、能力、時間的制約,數(shù)據(jù)集的篩選和正確使用仍然將會是一個持久的挑戰(zhàn)。對于這個問題,閉源的數(shù)據(jù)集以及方法并不是不存在,只是更加隱蔽了。

也可能會有人擔(dān)心,所有的數(shù)據(jù)集和算法開放后,模型是否會面臨更多被操控的風(fēng)險?筆者認為,這確實是一個很大的問題,例如模型可能會更容易被 “越獄”,從而被操控或輸出原本不應(yīng)輸出的內(nèi)容,這是一個需要尤其重點關(guān)注的風(fēng)險點。

在應(yīng)對策略方面,這場攻防戰(zhàn)的 “藍方” 同時也獲得了更多的信息,可以再次加固相關(guān)能力,在這個過程中,模型得以進行更加充沛的發(fā)展,就如同當(dāng)下的互聯(lián)網(wǎng)一樣。只有黑暗才能隱藏更多風(fēng)險尤其中心化的控制風(fēng)險,只有讓核心數(shù)據(jù)和算法經(jīng)受陽光的洗禮,并在所有人的監(jiān)督下不斷完善,才能讓模型在更多場景中被更深入地使用(即便如此,訓(xùn)練完的模型本身對人類來說也仍然是一個 “黑盒”)。目前我們已經(jīng)看到的大量開源的模型在各行各業(yè)中展現(xiàn)出強大的生命力和生產(chǎn)力,相關(guān)的開源社區(qū)也正在迎來新的繁榮期,長期來看,大模型將繼續(xù)在各種風(fēng)險、機遇、挑戰(zhàn)、倫理等復(fù)雜環(huán)境中不斷發(fā)展。

結(jié)論

開源數(shù)據(jù)和算法在大模型訓(xùn)練中的重要性不言而喻,它們?yōu)?AI 研究和應(yīng)用帶來了前所未有的機遇。然而,這些機遇也伴隨著一定的風(fēng)險和挑戰(zhàn),需要在模型開發(fā)和應(yīng)用的過程中被認真對待和解決。通過采取適當(dāng)?shù)膽?yīng)對策略,我們可以在充分利用開源數(shù)據(jù)和算法的同時,盡量減少其潛在的風(fēng)險,推動 AI 技術(shù)的健康發(fā)展。

相信在未來,隨著技術(shù)的不斷進步和相關(guān)政策的完善,開源數(shù)據(jù)和算法將在大模型訓(xùn)練中發(fā)揮更加重要的作用,為 AI 及大模型的研究和應(yīng)用帶來更多的創(chuàng)新和機遇。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4810

    瀏覽量

    98610
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4368

    瀏覽量

    46467
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3797

    瀏覽量

    5279

原文標(biāo)題:大模型訓(xùn)練中的開源數(shù)據(jù)和算法:機遇及挑戰(zhàn)

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    《多模態(tài)大模型 前沿算法與實戰(zhàn)應(yīng)用 第一季》精品課程簡介

    技術(shù),需要開發(fā)者同時具備模態(tài)編碼、跨模態(tài)對齊、系統(tǒng)優(yōu)化等跨領(lǐng)域能力。從算法原理到項目落地,關(guān)鍵在于理解不同模態(tài)的互補性,并通過合理的融合策略釋放多模態(tài)數(shù)據(jù)的協(xié)同價值。隨著大模型與多模態(tài)技術(shù)的深度融合,全棧開發(fā)者將迎來構(gòu)建更智能、
    發(fā)表于 05-01 17:46

    AI Ceph 分布式存儲教程資料大模型學(xué)習(xí)資料2026

    的混合策略,存儲系統(tǒng)既能保證在硬件故障(如硬盤損壞、節(jié)點宕機)下的數(shù)據(jù)高可靠性,又能提供比傳統(tǒng)多副本更高的存儲利用率。 在分布式環(huán)境下,數(shù)據(jù)一致性是另一個科技挑戰(zhàn)。在模型
    發(fā)表于 05-01 17:35

    HM博學(xué)谷狂野AI大模型第四期

    ,抽象的數(shù)學(xué)概念將轉(zhuǎn)化為具象的張量流動邏輯。開發(fā)者將不再被復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)圖所迷惑,而是能夠清晰地看到數(shù)據(jù)模型內(nèi)部的流動軌跡,為后續(xù)的模型優(yōu)化與定制打下堅實的算法地基。 二、
    發(fā)表于 05-01 17:30

    小米開源VLA大模型訓(xùn)練全流程:亞毫米級操作突破引領(lǐng)機器人產(chǎn)業(yè)革命

    在機器人技術(shù)領(lǐng)域,小米集團近日宣布開源VLA大模型Xiaomi-Robotics-0的后訓(xùn)練全流程,這一突破性進展標(biāo)志著智能機器人從實驗室走向?qū)嶋H生產(chǎn)的"最后一公里"正式打通。該模型
    的頭像 發(fā)表于 04-28 09:24 ?859次閱讀

    Edge Impulse 喚醒詞模型訓(xùn)練 | 技術(shù)集結(jié)

    Edgi-Talk開始使用邊緣機器學(xué)習(xí)!目錄EdgeImpulse簡介創(chuàng)建賬號錄制數(shù)據(jù)數(shù)據(jù)上傳數(shù)據(jù)分割模型訓(xùn)練
    的頭像 發(fā)表于 04-20 10:05 ?1260次閱讀
    Edge Impulse 喚醒詞<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b> | 技術(shù)集結(jié)

    AI大模型微調(diào)企業(yè)項目實戰(zhàn)課

    數(shù)據(jù)、懂業(yè)務(wù)的“AI 架構(gòu)師”。當(dāng)企業(yè)真正掌握了從開源基座到專屬模型的轉(zhuǎn)化能力時,就擁有了抵御外部不確定性的最強護城河。筑牢自主可控的 AI 底座,企業(yè)才能在智能化轉(zhuǎn)型的狂飆突進中,將命運緊緊握在自己手中。
    發(fā)表于 04-16 18:48

    人工智能多模態(tài)與視覺大模型開發(fā)實戰(zhàn) - 2026必會

    訓(xùn)練,模型可以逐漸提升對圖像的理解能力,實現(xiàn)對各種視覺任務(wù)的精準(zhǔn)處理。 此外,視覺大模型的發(fā)展還得益于大規(guī)模數(shù)據(jù)集和強大計算資源的支持。海量標(biāo)注數(shù)
    發(fā)表于 04-15 16:06

    【瑞薩AI挑戰(zhàn)賽】手寫數(shù)字識別模型在RA8P1 Titan Board上的部署

    模型進行一個保存,方便后期進行分析。 訓(xùn)練腳本: import torch import torchvision from model import * import os # 準(zhǔn)備數(shù)據(jù)
    發(fā)表于 03-15 20:42

    自動駕駛大模型訓(xùn)練數(shù)據(jù)有什么具體要求?

    [首發(fā)于智駕最前沿微信公眾號]想訓(xùn)練出一個可以落地的自動駕駛大模型,不是簡單地給其提供幾張圖片,幾條規(guī)則就可以的,而是需要非常多的多樣的、真實的駕駛數(shù)據(jù),從而可以讓大模型真正理解道路、
    的頭像 發(fā)表于 12-26 09:32 ?388次閱讀
    自動駕駛大<b class='flag-5'>模型</b>的<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b>有什么具體要求?

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗

    模型。 我們使用MNIST數(shù)據(jù)集,訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型,用于手寫數(shù)字識別。一旦模型訓(xùn)練
    發(fā)表于 10-22 07:03

    NVIDIA開源Audio2Face模型及SDK

    NVIDIA 現(xiàn)已開源 Audio2Face 模型與 SDK,讓所有游戲和 3D 應(yīng)用開發(fā)者都可以構(gòu)建并部署帶有先進動畫的高精度角色。NVIDIA 開源 Audio2Face 的訓(xùn)練
    的頭像 發(fā)表于 10-21 11:11 ?1038次閱讀
    NVIDIA<b class='flag-5'>開源</b>Audio2Face<b class='flag-5'>模型</b>及SDK

    借助NVIDIA Megatron-Core大模型訓(xùn)練框架提高顯存使用效率

    隨著模型規(guī)模邁入百億、千億甚至萬億參數(shù)級別,如何在有限顯存中“塞下”訓(xùn)練任務(wù),對研發(fā)和運維團隊都是巨大挑戰(zhàn)。NVIDIA Megatron-Core 作為流行的大模型
    的頭像 發(fā)表于 10-21 10:55 ?1429次閱讀
    借助NVIDIA Megatron-Core大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>框架提高顯存使用效率

    新一代超大模型訓(xùn)練引擎XTuner V1開源

    9月8日,上海人工智能實驗室(上海AI實驗室)開源書生大模型新一代訓(xùn)練引擎XTuner V1。
    的頭像 發(fā)表于 09-10 10:55 ?1373次閱讀

    模板驅(qū)動 無需訓(xùn)練數(shù)據(jù) SmartDP解決小樣本AI算法模型開發(fā)難題

    算法作為軟實力,其水平直接影響著目標(biāo)檢測識別的能力。兩年前,慧視光電推出了零基礎(chǔ)的基于yolo系列算法架構(gòu)的AI算法開發(fā)平臺SpeedDP,此平臺能夠通過數(shù)據(jù)驅(qū)動
    的頭像 發(fā)表于 09-09 17:57 ?1576次閱讀
    模板驅(qū)動  無需<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b>  SmartDP解決小樣本AI<b class='flag-5'>算法</b><b class='flag-5'>模型</b>開發(fā)難題

    k210在線訓(xùn)練算法是yolo5嗎?

    k210在線訓(xùn)練算法是yolo5嗎
    發(fā)表于 06-16 08:25
    密云县| 朝阳县| 宜丰县| 辽宁省| 建昌县| 洛阳市| 湖北省| 将乐县| 五寨县| 池州市| 报价| 清远市| 新邵县| 栖霞市| 无为县| 吉安县| 西宁市| 同江市| 桓仁| 潜山县| 惠来县| 河北区| 舞钢市| 尼木县| 通山县| 龙陵县| 永宁县| 金塔县| 宜兰县| 张掖市| 于都县| 荔波县| 礼泉县| 海口市| 崇仁县| 航空| 仲巴县| 章丘市| 卓尼县| 扬中市| 延安市|