日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

騰訊AI Lab宣布正式開(kāi)源“Tencent ML-Images”項(xiàng)目

G5zW_AppDowns ? 來(lái)源:未知 ? 作者:李倩 ? 2018-10-23 16:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

今日,騰訊AI Lab宣布正式開(kāi)源“Tencent ML-Images”項(xiàng)目,該項(xiàng)目由多標(biāo)簽圖像數(shù)據(jù)集ML-Images,以及業(yè)內(nèi)目前同類(lèi)深度學(xué)習(xí)模型中精度最高的深度殘差網(wǎng)絡(luò)ResNet-101構(gòu)成。

該項(xiàng)目的開(kāi)源,是騰訊AI Lab在計(jì)算機(jī)視覺(jué)領(lǐng)域所累積的基礎(chǔ)能力的一次釋放,為人工智能領(lǐng)域的科研人員和工程師提供了充足的高質(zhì)量訓(xùn)練數(shù)據(jù),及簡(jiǎn)單易用、性能強(qiáng)大的深度學(xué)習(xí)模型,促進(jìn)人工智能行業(yè)共同發(fā)展。

騰訊AI Lab此次公布的圖像數(shù)據(jù)集ML-Images,包含了1800萬(wàn)圖像和1.1萬(wàn)多種常見(jiàn)物體類(lèi)別,在業(yè)內(nèi)已公開(kāi)的多標(biāo)簽圖像數(shù)據(jù)集中規(guī)模最大,足以滿(mǎn)足一般科研機(jī)構(gòu)及中小企業(yè)的使用場(chǎng)景。此外,基于ML-Images訓(xùn)練得到的深度殘差網(wǎng)絡(luò)ResNet-101,具有優(yōu)異的視覺(jué)表示能力和泛化性能,在當(dāng)前業(yè)內(nèi)同類(lèi)模型中精度最高,將為包括圖像、視頻等在內(nèi)的視覺(jué)任務(wù)提供強(qiáng)大支撐,并助力圖像分類(lèi)、物體檢測(cè)、物體跟蹤、語(yǔ)義分割等技術(shù)水平的提升。

本次正式開(kāi)源,其主要內(nèi)容包括:

ML-Images數(shù)據(jù)集的全部圖像URLs,以及相應(yīng)的類(lèi)別標(biāo)注。因原始圖像版權(quán)問(wèn)題,此次開(kāi)源將不直接提供原始圖像,用戶(hù)可利用騰訊AI Lab提供的下載代碼和URLs自行下載圖像。

ML-Images數(shù)據(jù)集的詳細(xì)介紹。包括圖像來(lái)源、圖像數(shù)量、類(lèi)別數(shù)量、類(lèi)別的語(yǔ)義標(biāo)簽體系、標(biāo)注方法,以及圖像的標(biāo)注數(shù)量等統(tǒng)計(jì)量。

完整的代碼和模型。騰訊AI Lab提供的代碼涵蓋從圖像下載和圖像預(yù)處理,到基于ML-Images的預(yù)訓(xùn)練和基于ImageNet的遷移學(xué)習(xí),再到基于訓(xùn)練所得模型的圖像特征提取的完整流程。項(xiàng)目提供了基于小數(shù)據(jù)集的訓(xùn)練示例,以方便用戶(hù)快速體驗(yàn)該訓(xùn)練流程。項(xiàng)目還提供了具有極高精度的ResNet-101模型(在單標(biāo)簽基準(zhǔn)數(shù)據(jù)集ImageNet的驗(yàn)證集上的top-1精度為80.73%)。用戶(hù)可根據(jù)自身需求,隨意選用該項(xiàng)目的代碼或模型。

以深度神經(jīng)網(wǎng)絡(luò)為典型代表的深度學(xué)習(xí)技術(shù)已經(jīng)在很多領(lǐng)域充分展現(xiàn)出其優(yōu)異的能力,尤其是計(jì)算機(jī)視覺(jué)領(lǐng)域,包括圖像和視頻的分類(lèi)、理解和生成等重要任務(wù)。然而,要充分發(fā)揮出深度學(xué)習(xí)的視覺(jué)表示能力,必須建立在充足的高質(zhì)量訓(xùn)練數(shù)據(jù)、優(yōu)秀的模型結(jié)構(gòu)和模型訓(xùn)練方法,以及強(qiáng)大的的計(jì)算資源等基礎(chǔ)能力之上。

各大科技公司都非常重視人工智能基礎(chǔ)能力的建設(shè),都建立了僅面向其內(nèi)部的大型圖像數(shù)據(jù)集,例如谷歌的JFT-300M和Facebook的Instagram數(shù)據(jù)集。但這些數(shù)據(jù)集及其訓(xùn)練得到的模型都沒(méi)有公開(kāi),對(duì)于一般的科研機(jī)構(gòu)和中小企業(yè)來(lái)說(shuō),這些人工智能基礎(chǔ)能力有著非常高的門(mén)檻。

當(dāng)前業(yè)內(nèi)公開(kāi)的最大規(guī)模的多標(biāo)簽圖像數(shù)據(jù)集是谷歌公司的Open Images, 包含900萬(wàn)圖像和6000多物體類(lèi)別。騰訊AI Lab此次開(kāi)源的ML-Images數(shù)據(jù)集包括1800萬(wàn)圖像和1.1萬(wàn)多常見(jiàn)物體類(lèi)別,或?qū)⒊蔀樾碌男袠I(yè)基準(zhǔn)數(shù)據(jù)集。

此外,基于ML-Images訓(xùn)練得到的ResNet-101模型,具有優(yōu)異的視覺(jué)表示能力和泛化性能。通過(guò)遷移學(xué)習(xí),該模型在ImageNet驗(yàn)證集上取得了80.73%的top-1分類(lèi)精度,超過(guò)谷歌同類(lèi)模型(遷移學(xué)習(xí)模式)的精度,且值得注意的是,ML-Images的規(guī)模僅為JFT-300M的約1/17。這充分說(shuō)明了ML-Images的高質(zhì)量和訓(xùn)練方法的有效性。詳細(xì)對(duì)比如下表。

注:微軟ResNet-101模型為非遷移學(xué)習(xí)模式下訓(xùn)練得到,即1.2M預(yù)訓(xùn)練圖像為原始數(shù)據(jù)集ImageNet的圖像。

騰訊AI Lab此次開(kāi)源的“Tencent ML-Images”項(xiàng)目,展現(xiàn)了騰訊在人工智能基礎(chǔ)能力建設(shè)方面的努力,以及希望通過(guò)基礎(chǔ)能力的開(kāi)放促進(jìn)行業(yè)共同發(fā)展的愿景。

“Tencent ML-Images”項(xiàng)目的深度學(xué)習(xí)模型,目前已在騰訊多項(xiàng)業(yè)務(wù)中發(fā)揮重要作用,如“天天快報(bào)”的圖像質(zhì)量評(píng)價(jià)與推薦功能,其后臺(tái)測(cè)試的日調(diào)用量已達(dá)1000萬(wàn)次。

如下圖所示,天天快報(bào)新聞封面圖像的質(zhì)量得到明顯提高。

左圖為優(yōu)化前,右圖為優(yōu)化后

此外,騰訊AI Lab團(tuán)隊(duì)還將基于Tencent ML-Images的ResNet-101模型遷移到很多其他視覺(jué)任務(wù),包括圖像物體檢測(cè),圖像語(yǔ)義分割,視頻物體分割,視頻物體跟蹤等。這些視覺(jué)遷移任務(wù)進(jìn)一步驗(yàn)證了該模型的強(qiáng)大視覺(jué)表示能力和優(yōu)異的泛化性能?!癟encent ML-Images”項(xiàng)目未來(lái)還將在更多視覺(jué)相關(guān)的產(chǎn)品中發(fā)揮重要作用。

自2016年騰訊首次在GitHub上發(fā)布開(kāi)源項(xiàng)目(https://github.com/Tencent),目前已累積開(kāi)源覆蓋人工智能、移動(dòng)開(kāi)發(fā)、小程序等領(lǐng)域的57個(gè)項(xiàng)目。為進(jìn)一步貢獻(xiàn)開(kāi)源社區(qū),騰訊相繼加入Hyperledger、LF Networking和開(kāi)放網(wǎng)絡(luò)基金會(huì),并成為L(zhǎng)F深度學(xué)習(xí)基金會(huì)首要?jiǎng)?chuàng)始成員及Linux基金會(huì)白金會(huì)員。作為騰訊“開(kāi)放”戰(zhàn)略在技術(shù)領(lǐng)域的體現(xiàn),騰訊開(kāi)源將繼續(xù)對(duì)內(nèi)推動(dòng)技術(shù)研發(fā)向共享、復(fù)用和開(kāi)源邁進(jìn),向外釋放騰訊研發(fā)實(shí)力,為國(guó)內(nèi)外開(kāi)源社區(qū)提供技術(shù)支持,注入研發(fā)活力。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 騰訊
    +關(guān)注

    關(guān)注

    7

    文章

    1687

    瀏覽量

    51013
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1240

    瀏覽量

    26264
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5610

    瀏覽量

    124663

原文標(biāo)題:騰訊AI Lab正式開(kāi)源業(yè)內(nèi)最大規(guī)模多標(biāo)簽圖像數(shù)據(jù)集

文章出處:【微信號(hào):AppDowns,微信公眾號(hào):掌上科技頻道】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    騰訊Hy3 preview開(kāi)源:重構(gòu)AI大模型技術(shù)范式,開(kāi)啟智能計(jì)算新紀(jì)元

    2026年4月23日,騰訊混元正式開(kāi)源其最新語(yǔ)言模型Hy3 preview,這款被官方定義為“混元迄今最智能的模型”的產(chǎn)品,以2950億總參數(shù)、210億激活參數(shù)的混合專(zhuān)家架構(gòu),配合256K超長(zhǎng)上下文窗口,標(biāo)志著騰訊
    的頭像 發(fā)表于 04-24 09:07 ?894次閱讀

    OpenAI正式發(fā)布ChatGPT Images 2.0版本

    在人工智能技術(shù)迅猛發(fā)展的浪潮中,OpenAI始終是引領(lǐng)行業(yè)變革的先鋒力量。近日,OpenAI正式發(fā)布ChatGPT Images 2.0版本,這一消息如同一顆重磅炸彈,在科技圈引發(fā)了強(qiáng)烈反響,在
    的頭像 發(fā)表于 04-22 11:32 ?2489次閱讀

    開(kāi)放原子開(kāi)源基金會(huì)旗下項(xiàng)目亮相FOSSASIA Summit 2026,中國(guó)開(kāi)源力量閃耀曼谷

    技術(shù)發(fā)展趨勢(shì)與創(chuàng)新實(shí)踐。開(kāi)放原子開(kāi)源基金會(huì)旗下孵化運(yùn)營(yíng)項(xiàng)目openEuler與openKylin共同亮相大會(huì),并分別攜生態(tài)伙伴參會(huì),集中展示中國(guó)開(kāi)源項(xiàng)目
    的頭像 發(fā)表于 04-15 17:55 ?103次閱讀
    開(kāi)放原子<b class='flag-5'>開(kāi)源</b>基金會(huì)旗下<b class='flag-5'>項(xiàng)目</b>亮相FOSSASIA Summit 2026,中國(guó)<b class='flag-5'>開(kāi)源</b>力量閃耀曼谷

    摩爾線程正式開(kāi)源TileLang-MUSA項(xiàng)目

    近日,摩爾線程正式開(kāi)源TileLang-MUSA項(xiàng)目,實(shí)現(xiàn)對(duì)TileLang編程語(yǔ)言的完整支持。該項(xiàng)目已成功在摩爾線程多代全功能GPU上完成功能驗(yàn)證與特性開(kāi)發(fā),旨在通過(guò)高層抽象與編譯器優(yōu)化,大幅降低開(kāi)發(fā)門(mén)檻,為國(guó)產(chǎn)算力平臺(tái)提供更
    的頭像 發(fā)表于 02-11 16:57 ?1744次閱讀

    沐曦曦云C500/C550 GPU產(chǎn)品適配騰訊混元開(kāi)源翻譯模型1.5版本

    12月30日,騰訊混元宣布推出并開(kāi)源翻譯模型1.5,共包含兩個(gè)模型:Tencent-HY-MT1.5-1.8B 和 Tencent-HY-M
    的頭像 發(fā)表于 01-06 14:13 ?621次閱讀
    沐曦曦云C500/C550 GPU產(chǎn)品適配<b class='flag-5'>騰訊</b>混元<b class='flag-5'>開(kāi)源</b>翻譯模型1.5版本

    壁仞科技壁礪166M產(chǎn)品適配騰訊混元開(kāi)源翻譯模型1.5版本

    12月30日,騰訊混元正式開(kāi)源翻譯模型1.5版本,該版本共包含兩個(gè)模型:Tencent-HY-MT1.5-1.8B和Tencent-HY-MT1.5-7B,支持33個(gè)語(yǔ)種互譯以及5種民
    的頭像 發(fā)表于 01-05 15:39 ?472次閱讀
    壁仞科技壁礪166M產(chǎn)品適配<b class='flag-5'>騰訊</b>混元<b class='flag-5'>開(kāi)源</b>翻譯模型1.5版本

    開(kāi)源鴻蒙項(xiàng)目順利孵化畢業(yè)

    2025年11月21日,2025開(kāi)放原子開(kāi)發(fā)者大會(huì)在北京隆重啟幕。作為本次大會(huì)的重磅環(huán)節(jié)和核心焦點(diǎn)之一,在大會(huì)開(kāi)幕式上,開(kāi)放原子開(kāi)源基金會(huì)(以下簡(jiǎn)稱(chēng)“基金會(huì)”)宣布開(kāi)源鴻蒙項(xiàng)目達(dá)成
    的頭像 發(fā)表于 11-27 14:36 ?750次閱讀

    開(kāi)源鴻蒙項(xiàng)目達(dá)成開(kāi)源孵化目標(biāo)順利畢業(yè)

    11月21日,2025開(kāi)放原子開(kāi)發(fā)者大會(huì)在北京隆重啟幕。作為本次大會(huì)的重磅環(huán)節(jié)和核心焦點(diǎn)之一,在大會(huì)開(kāi)幕式上,開(kāi)源鴻蒙項(xiàng)目達(dá)成開(kāi)源孵化目標(biāo)、順利畢業(yè),這是項(xiàng)目
    的頭像 發(fā)表于 11-25 17:36 ?1302次閱讀

    開(kāi)源鴻蒙和開(kāi)源歐拉成為開(kāi)放原子開(kāi)源基金會(huì)首批畢業(yè)項(xiàng)目

    11月21日,在2025開(kāi)放原子開(kāi)發(fā)者大會(huì)開(kāi)幕式上,開(kāi)放原子開(kāi)源基金會(huì)宣布旗下開(kāi)源鴻蒙(OpenHarmony)與開(kāi)源歐拉(openEuler)成為首批畢業(yè)
    的頭像 發(fā)表于 11-25 17:22 ?1023次閱讀

    NVIDIA Isaac Lab多GPU多節(jié)點(diǎn)訓(xùn)練指南

    NVIDIA Isaac Lab 是一個(gè)適用于機(jī)器人學(xué)習(xí)的開(kāi)源統(tǒng)一框架,基于 NVIDIA Isaac Sim 開(kāi)發(fā),其模塊化高保真仿真適用于各種訓(xùn)練環(huán)境,可提供各種物理 AI 功能和由 GPU 驅(qū)動(dòng)的物理仿真,縮小仿真與現(xiàn)實(shí)世
    的頭像 發(fā)表于 09-23 17:15 ?2666次閱讀
    NVIDIA Isaac <b class='flag-5'>Lab</b>多GPU多節(jié)點(diǎn)訓(xùn)練指南

    騰訊地圖在AI時(shí)代的全新思考與實(shí)踐

    9月17日,在2025騰訊全球數(shù)字生態(tài)大會(huì)地圖專(zhuān)場(chǎng)上,騰訊集團(tuán)副總裁、騰訊智慧出行總裁鐘翔平分享了騰訊地圖在AI時(shí)代的全新思考與實(shí)踐。
    的頭像 發(fā)表于 09-18 10:32 ?1048次閱讀

    Arm率先適配騰訊混元開(kāi)源模型,助力端側(cè)AI創(chuàng)新開(kāi)發(fā)

    本周初,騰訊混元宣布開(kāi)源四款小尺寸模型(參數(shù)分別為 0.5B、1.8B、4B、7B),可無(wú)縫運(yùn)行于消費(fèi)級(jí)顯卡上。作為全球應(yīng)用范圍最為廣泛的計(jì)算平臺(tái),Arm 在開(kāi)源首日就已率先實(shí)現(xiàn)適配,
    的頭像 發(fā)表于 08-08 09:16 ?1580次閱讀
    Arm率先適配<b class='flag-5'>騰訊</b>混元<b class='flag-5'>開(kāi)源</b>模型,助力端側(cè)<b class='flag-5'>AI</b>創(chuàng)新開(kāi)發(fā)

    硬件與應(yīng)用同頻共振,英特爾Day 0適配騰訊開(kāi)源混元大模型

    于OpenVINO? 構(gòu)建的 AI 軟件平臺(tái)的可擴(kuò)展性,英特爾助力ISV生態(tài)伙伴率先實(shí)現(xiàn)應(yīng)用端Day 0 模型適配,大幅加速了新模型的落地進(jìn)程,彰顯了 “硬件 + 模型 + 生態(tài)” 協(xié)同的強(qiáng)大爆發(fā)力。 混元新模型登場(chǎng):多維度突破,酷睿?Ultra?平臺(tái)Day?0適配 騰訊
    的頭像 發(fā)表于 08-07 14:42 ?1567次閱讀
    硬件與應(yīng)用同頻共振,英特爾Day 0適配<b class='flag-5'>騰訊</b><b class='flag-5'>開(kāi)源</b>混元大模型

    開(kāi)放原子開(kāi)源基金會(huì)與騰訊云達(dá)成合作

    近日,在北京舉行的2025開(kāi)放原子開(kāi)源生態(tài)大會(huì)現(xiàn)場(chǎng),開(kāi)放原子開(kāi)源基金會(huì)與騰訊云計(jì)算(北京)有限責(zé)任公司簽署“開(kāi)源協(xié)作平臺(tái)互聯(lián)合作協(xié)議”。
    的頭像 發(fā)表于 08-05 11:06 ?1543次閱讀

    大家都在用什么AI軟件?有沒(méi)有好用的免費(fèi)的AI軟件推薦一下?

    大家都在用什么AI軟件?有沒(méi)有好用的免費(fèi)的AI軟件推薦一下?直接發(fā)個(gè)安裝包,謝謝。比如deepseek、Chatgpt、豆包、阿里AI、百度AI
    發(fā)表于 07-09 18:30
    临沧市| 赣榆县| 河间市| 宽甸| 新巴尔虎左旗| 尉犁县| 雅安市| 丹阳市| 西和县| 黑河市| 始兴县| 星子县| 九龙坡区| 原平市| 登封市| 高州市| 嘉义县| 宜昌市| 灵武市| 安吉县| 屯留县| 五峰| 社旗县| 灯塔市| 论坛| 河北区| 泽普县| 兴仁县| 射阳县| 卢氏县| 绥江县| 银川市| 嘉义县| 盐城市| 黎川县| 昌图县| 江城| 新蔡县| 辽阳县| 江口县| 龙里县|