日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于圖深度學(xué)習(xí)的開源工具包——CogDL

454398 ? 來源:機(jī)器之心 ? 作者:AMiner學(xué)術(shù)頭條 ? 2020-10-29 10:51 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一行代碼命令可以做什么?

“一行命令可以實(shí)現(xiàn)‘一條龍’運(yùn)行實(shí)驗(yàn)?!?/p>

訪問 github.com/THUDM/cogdl 一鍵體驗(yàn)!

近年來,結(jié)構(gòu)化數(shù)據(jù)的表示學(xué)習(xí)備受業(yè)界關(guān)注與熱捧,圖神經(jīng)網(wǎng)絡(luò)成為處理相關(guān)工作的有力工具,基于隨機(jī)游走、矩陣分解的方法在搜索推薦、分子和藥物生成等領(lǐng)域有著十分重要的應(yīng)用。

但是,由于許多項(xiàng)目的代碼并未開源或者開源代碼的風(fēng)格多種多樣,研究者和使用者在使用這些方法的過程中會遇到各種各樣的問題,比如實(shí)驗(yàn)復(fù)現(xiàn)以及如何在自己的數(shù)據(jù)集上運(yùn)行模型等。

具體而言(以學(xué)術(shù)研究為例),研究者和使用者在從事研究過程中需要將自己提出的模型與其他模型進(jìn)行對比,來驗(yàn)證所提出模型的有效性。但在對比過程中,他們需要選定若干個下游任務(wù),在每個任務(wù)下,通過公平的評估方式來對比不同模型的性能,由于不同模型在提出時可能會使用不完全一致的下游任務(wù)或者評估方式,他們需要花費(fèi)大量精力修改基線模型來進(jìn)行適配。

那么,如何快速、便捷地復(fù)現(xiàn)出基線模型(baseline)的結(jié)果,并將這些模型應(yīng)用到自定義的數(shù)據(jù)集上?

為此,清華大學(xué)知識工程實(shí)驗(yàn)室(KEG)聯(lián)合北京智源人工智能研究院(BAAI)開發(fā)了一種基于圖深度學(xué)習(xí)的開源工具包——CogDL(底層架構(gòu)為 PyTorch,編程語言為 Python)。

據(jù) CogDL 開發(fā)者介紹,該工具包通過整合多種不同的下游任務(wù),同時搭配合適的評估方式,使得研究者和使用者可以方便、快速地運(yùn)行出各種基線模型的結(jié)果,進(jìn)而將更多精力投入研發(fā)新模型的工作之中。

“對圖領(lǐng)域中每種任務(wù),我們提供了一套完整的“數(shù)據(jù)處理-模型搭建-模型訓(xùn)練-模型評估”的方案,易于研發(fā)人員做相關(guān)的實(shí)驗(yàn)。比如對于圖上半監(jiān)督節(jié)點(diǎn)分類任務(wù),我們整合了常用的數(shù)據(jù)集 Cora、Citeseer、Pubmed,提供了經(jīng)典的/前沿的各種模型(包括GCN、GAT、GCNII 等),提供了相應(yīng)的訓(xùn)練腳本,并且整理出了一個相應(yīng)的排行榜作為參考?!?CogDL 開發(fā)者說。

CogDL 最特別的一點(diǎn)在于它以任務(wù)(task)為導(dǎo)向來集成所有算法,將每一個算法分配在一個或多個任務(wù)下,從而構(gòu)建了 “數(shù)據(jù)處理-模型搭建-模型訓(xùn)練和驗(yàn)證” 一條龍的實(shí)現(xiàn)。

此外,CogDL 也支持研究者和使用者自定義模型和數(shù)據(jù)集,并嵌入在 CogDL 的整體框架下,從而幫助他們提高開發(fā)效率,同時也包含了當(dāng)前許多數(shù)據(jù)集上 SOTA 算法的實(shí)現(xiàn),并且仍然在不斷更新。 CogDL:面向任務(wù),擴(kuò)展算法 圖表示學(xué)習(xí)算法可以分為兩類:一類是基于圖神經(jīng)網(wǎng)絡(luò)的算法,另一類是基于 Skip-gram 或矩陣分解的算法。前者包括 GCN、GAT、GraphSAGE 和 DiffPool 等,以及適用于異構(gòu)圖的 RGCN、GATNE 等;后者則包括 Deepwalk、Node2Vec、HOPE 和 NetMF 等,以及用于圖分類的 DGK、graph2vec 等算法。

大體上,CogDL 將已有圖表示學(xué)習(xí)算法劃分為以下 6 項(xiàng)任務(wù):

有監(jiān)督節(jié)點(diǎn)分類任務(wù)(node classification):包括 GCN、GAT、GraphSAGE、MixHop 和 GRAND 等;

無監(jiān)督節(jié)點(diǎn)分類任務(wù)(unsupervised node classification):包括 DGI、GraphSAGE(無監(jiān)督實(shí)現(xiàn)),以及 Deepwalk、Node2vec、ProNE 等;

有監(jiān)督圖分類任務(wù)(graph classification):包括 GIN、DiffPool、SortPool 等;

無監(jiān)督圖分類任務(wù)(unsupervised graph classification):包括 InfoGraph、DGK、Graph2Vec 等;

鏈接預(yù)測任務(wù)(link prediction):包括 RGCN、CompGCN、GATNE 等;

異構(gòu)節(jié)點(diǎn)分類(multiplex node classification):包括 GTN、HAN、Metapath2vec 等。

CogDL 還包括圖上的預(yù)訓(xùn)練模型 GCC,GCC 主要利用圖的結(jié)構(gòu)信息來預(yù)訓(xùn)練圖神經(jīng)網(wǎng)絡(luò),從而使得該網(wǎng)絡(luò)可以遷移到其他數(shù)據(jù)集上,來取得較好的節(jié)點(diǎn)分類和圖分類的效果。 能用來做什么? 那么,研究者和使用者可以利用 CogDL 做些什么?主要有三點(diǎn):跟進(jìn) SOTA、復(fù)現(xiàn)實(shí)驗(yàn),以及自定義模型和數(shù)據(jù)。

跟進(jìn) SOTA。CogDL 跟進(jìn)最新發(fā)布的算法,包含不同任務(wù)下 SOTA 的實(shí)現(xiàn),同時建立了不同任務(wù)下所有模型的 leaderboard(排行榜),研究人員和開發(fā)人員可以通過 leaderboard 比較不同算法的效果。

復(fù)現(xiàn)實(shí)驗(yàn)。論文模型的可復(fù)現(xiàn)性是非常重要的。CogDL 通過實(shí)現(xiàn)不同論文的模型也是對模型可復(fù)現(xiàn)性的一個檢驗(yàn)。

自定義模型和數(shù)據(jù)?!皵?shù)據(jù)-模型-訓(xùn)練”三部分在 CogDL 中是獨(dú)立的,研究者和使用者可以自定義其中任何一部分,并復(fù)用其他部分,從而提高開發(fā)效率。 怎么用? 有兩種方法:命令行直接運(yùn)行,通過 API 調(diào)用 命令行直接運(yùn)行。通過命令行可以直接指定 "task"、"model"、"dataset" 以及對應(yīng)的超參數(shù),并且支持同時指定多個模型和多個數(shù)據(jù)集,更方便。代碼如下:

支持自定義數(shù)據(jù)集和模型,并且提供了自動調(diào)參的例子。

據(jù) CogDL 研究者介紹,從 2019 年啟動以來,該項(xiàng)目經(jīng)過了多次密集的研發(fā),到目前已經(jīng)整合了圖領(lǐng)域的重要任務(wù)及其相關(guān)的經(jīng)典和前沿的模型。

CogDL 開發(fā)者表示,“起初,我們只是整合了實(shí)驗(yàn)室內(nèi)部從事相關(guān)領(lǐng)域研究的同學(xué)所使用的相關(guān)代碼,為了方便實(shí)驗(yàn)室其余的同學(xué)運(yùn)行相關(guān)的實(shí)驗(yàn)。后來,我們決定將代碼開源出來,讓更多的研究和開發(fā)人員能夠借助我們的代碼從事相關(guān)工作?!?br />
如今,CogDL 已經(jīng)上線了 CogDL v0.1.1。

“我們增加了一些最前沿的圖神經(jīng)網(wǎng)絡(luò)模型,包括圖自監(jiān)督模型、圖預(yù)訓(xùn)練模型。用戶可以利用圖上預(yù)訓(xùn)練好的模型做不同的下游任務(wù)。在下游任務(wù)方面,我們增加了知識圖譜的鏈接預(yù)測任務(wù),方便從事知識圖譜領(lǐng)域的用戶進(jìn)行相關(guān)實(shí)驗(yàn)?!?CogDL 開發(fā)者說。

具體而言,在監(jiān)督節(jié)點(diǎn)分類任務(wù)上,增加了 GRAND 和 DisenGCN,GRAND 在 Cora、PubMed、Citeseer 上取得了 SOTA 或者接近 SOTA 的效果;無監(jiān)督節(jié)點(diǎn)分類任務(wù)上,增加了 DGI、MVGRL、GraphSAGE(無監(jiān)督實(shí)現(xiàn));在鏈接預(yù)測任務(wù)上,增加了知識圖譜上的鏈接預(yù)測 GNN 模型 RGCN 和 CompGCN;以及增加了圖上的預(yù)訓(xùn)練模型 GCC。

另外,CogDL 也提供了使用 optuna 進(jìn)行超參數(shù)搜索的 example,通過指定 "模型,數(shù)據(jù)集,參數(shù)" 即可自動實(shí)現(xiàn)超參數(shù)的搜索。

接下來,CogDL 研究者希望在現(xiàn)有基礎(chǔ)上,繼續(xù)補(bǔ)充其余的圖領(lǐng)域的下游任務(wù),添加更多的數(shù)據(jù)集,更新每個任務(wù)的排行榜;同時增加最前沿的關(guān)于預(yù)訓(xùn)練的圖神經(jīng)網(wǎng)絡(luò)模型,支持用戶直接使用預(yù)訓(xùn)練好的模型來進(jìn)行相關(guān)應(yīng)用;以及完善 CogDL 的教程和文檔,讓剛接觸圖領(lǐng)域的初學(xué)者能夠快速上手。

談及最終的愿景,CogDL 研究者表示,一方面希望從事圖數(shù)據(jù)領(lǐng)域的研究人員可以方便地利用 CogDL 來做實(shí)驗(yàn),另一方面希望面向?qū)嶋H應(yīng)用的開發(fā)人員可以利用 CogDL 來快速地搭建相關(guān)下游應(yīng)用,最終打造一個完善的圖領(lǐng)域的研發(fā)生態(tài)。
編輯:hfy

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1821

    文章

    50366

    瀏覽量

    267058
  • python
    +關(guān)注

    關(guān)注

    58

    文章

    4889

    瀏覽量

    90330
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5610

    瀏覽量

    124656
  • 結(jié)構(gòu)化數(shù)據(jù)

    關(guān)注

    0

    文章

    3

    瀏覽量

    2651
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度學(xué)習(xí)為什么還是無法處理邊緣場景?

    [首發(fā)于智駕最前沿微信公眾號]雖然自動駕駛車輛已經(jīng)完成了數(shù)百萬公里的行駛測試,深度學(xué)習(xí)也已被普遍應(yīng)用,但依然會在一些看似簡單的場景中犯下低級錯誤。比如在遇到一些從未見到過的邊緣場景時,系統(tǒng)可能會
    的頭像 發(fā)表于 05-04 10:16 ?977次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>為什么還是無法處理邊緣場景?

    KITSGTL5000EVBE 開發(fā)工具包無響應(yīng),i2c 失敗的原因?

    KITSGTL5000EVBE 開發(fā)工具包無響應(yīng),i2c 失敗
    發(fā)表于 04-22 07:11

    AT32開源鴻蒙開發(fā)環(huán)境搭建

    ; &amp;gt;&amp;gt; ~/.bashrc source ~/.bashrc至此開源鴻蒙編譯環(huán)境所需的工具包已安裝完畢。 3.3 編譯 AT32 支持
    發(fā)表于 01-16 13:56

    分享一個嵌入式開發(fā)學(xué)習(xí)路線

    。 開發(fā)環(huán)境與調(diào)試技巧:安裝STM32CubeMX(配置工具)+ Keil MDK-ARM(編譯軟件)或VSCode+STM32CubeIDE(開源免費(fèi)),學(xué)會用J-Link/SWD調(diào)試。 3. 深度
    發(fā)表于 12-04 11:01

    openDACS 2025 開源EDA與芯片賽項(xiàng) 賽題七:基于大模型的生成式原理設(shè)計(jì)

    特性。 補(bǔ)充: 該系統(tǒng)的用戶輸入和最終生成的原理網(wǎng)表格式均不作要求,參賽隊(duì)伍可根據(jù)系統(tǒng)的實(shí)際需要,設(shè)計(jì)合理的用戶輸入和原理網(wǎng)表格式。 原理網(wǎng)表可視化可以結(jié)合現(xiàn)有的開源PCB設(shè)計(jì)
    發(fā)表于 11-13 11:49

    eForce無線通信軟件開發(fā)工具包兼容WLAN模塊WKR612AA1

    近期,eForce株式會社宣布,其面向嵌入式設(shè)備的無線通信軟件開發(fā)工具包(μC3-WLAN SDK)現(xiàn)已兼容 KAGA FEI 生產(chǎn)的無線局域網(wǎng)(WLAN)模塊"WKR612AA1"。
    的頭像 發(fā)表于 09-24 15:16 ?1790次閱讀

    如何在機(jī)器視覺中部署深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

    1:基于深度學(xué)習(xí)的目標(biāo)檢測可定位已訓(xùn)練的目標(biāo)類別,并通過矩形框(邊界框)對其進(jìn)行標(biāo)識。 在討論人工智能(AI)或深度學(xué)習(xí)時,經(jīng)常會出現(xiàn)“
    的頭像 發(fā)表于 09-10 17:38 ?1074次閱讀
    如何在機(jī)器視覺中部署<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>神經(jīng)網(wǎng)絡(luò)

    量化評估企業(yè)軟件測試能力的評估工具包

    “每次版本迭代,測試團(tuán)隊(duì)總是最晚下班的一群人...”在汽車軟件快速迭代的今天,這樣的場景已成為行業(yè)常態(tài):開發(fā)效率不斷提升,但測試環(huán)節(jié)卻逐漸成為拖慢交付的“最后一公里”。復(fù)雜的工具鏈、割裂的流程、模糊
    的頭像 發(fā)表于 08-27 10:04 ?936次閱讀
    量化評估企業(yè)軟件測試能力的評估<b class='flag-5'>工具包</b>

    使用Altera SoC FPGA提升AI信道估計(jì)效率

    AI 套件和 OpenVINO 開源工具包部署深度學(xué)習(xí)模型。 該方案能夠?qū)⒏骂l率和信令負(fù)擔(dān)降低高達(dá) 99.9%,同時
    的頭像 發(fā)表于 08-26 16:27 ?3810次閱讀

    IQM 宣布 Resonance 量子云平臺重大升級,推出全新軟件開發(fā)工具包

    進(jìn)程,并為終端用戶帶來性能強(qiáng)大的新一代量子系統(tǒng)。 此次升級將 Qrisp——一個源自德國弗勞恩霍夫 FOKUS 研究所的項(xiàng)目——設(shè)為平臺新的默認(rèn)軟件開發(fā)工具包 (SDK)。Qrisp 為量子開發(fā)者
    的頭像 發(fā)表于 07-11 11:03 ?817次閱讀

    開源電機(jī)驅(qū)動,免費(fèi)學(xué)習(xí)

    ), 支持高達(dá) 110,000 RPM 的超高轉(zhuǎn)速。 應(yīng)用場景: 主要面向 航模電調(diào) 、 DIY 暴力風(fēng)扇 、 小型工業(yè)設(shè)備無刷電機(jī)驅(qū)動 等高轉(zhuǎn)速應(yīng)用。 開源性質(zhì): 硬件設(shè)計(jì)開源項(xiàng)目(原理、PCB 文件公開
    的頭像 發(fā)表于 07-01 14:51 ?1091次閱讀
    <b class='flag-5'>開源</b>電機(jī)驅(qū)動,免費(fèi)<b class='flag-5'>學(xué)習(xí)</b>

    開源電機(jī)驅(qū)動,免費(fèi)直播學(xué)習(xí)!

    開源電機(jī)驅(qū)動,免費(fèi)直播學(xué)習(xí)!
    的頭像 發(fā)表于 06-13 10:07 ?2055次閱讀
    <b class='flag-5'>開源</b>電機(jī)驅(qū)動,免費(fèi)直播<b class='flag-5'>學(xué)習(xí)</b>!

    開源鴻蒙工程工具分論壇圓滿舉辦

    近日,開源鴻蒙開發(fā)者大會2025(OHDC.2025)工程工具分論壇在深圳圓滿舉辦。本次分論壇由開源鴻蒙IDE SIG組長、華為終端BG工程工具技術(shù)專家唐春擔(dān)任出品人,主題為“
    的頭像 發(fā)表于 06-05 15:35 ?1214次閱讀

    電機(jī)控制入門工具包用戶指南

    本帖最后由 噯唱歌de 于 2025-5-30 16:47 編輯 需要完整版資料可下載附件查看哦!
    發(fā)表于 05-30 16:02

    開源鴻蒙開發(fā)新體驗(yàn),開鴻Bot系列今日開啟預(yù)售!

    今日,深開鴻正式宣布,開鴻Bot系列產(chǎn)品——開鴻BotBook與開鴻BotMini全面開啟預(yù)售。該系列面向開源鴻蒙開發(fā)者量身打造,搭載基于OpenHarmony深度定制的KaihongOS桌面
    發(fā)表于 05-16 14:13
    大名县| 深州市| 金乡县| 九龙县| 鄂托克前旗| 讷河市| 襄垣县| 瑞昌市| 泾川县| 西乌珠穆沁旗| 黎平县| SHOW| 南陵县| 东辽县| 垣曲县| 达拉特旗| 杨浦区| 酉阳| 永济市| 屏东市| 巩留县| 北川| 沅陵县| 抚宁县| 宾川县| 上高县| 常熟市| 德令哈市| 德庆县| 育儿| 通山县| 博湖县| 涞源县| 闽清县| 松溪县| 张家港市| 张北县| 钦州市| 武义县| 都江堰市| 九龙坡区|