日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

GNN教程:GraghSAGE算法細節(jié)詳解!

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2020-11-24 09:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

本文為GNN教程的第三篇文章 【GraghSAGE算法】,在GCN的博文中我們重點討論了圖神經(jīng)網(wǎng)絡(luò)的逐層傳播公式是如何推導的,然而,GCN的訓練方式需要將鄰接矩陣和特征矩陣一起放到內(nèi)存或者顯存里,在大規(guī)模圖數(shù)據(jù)上是不可取的。 其次,GCN在訓練時需要知道整個圖的結(jié)構(gòu)信息(包括待預測的節(jié)點), 這在現(xiàn)實某些任務(wù)中也不能實現(xiàn)(比如用今天訓練的圖模型預測明天的數(shù)據(jù),那么明天的節(jié)點是拿不到的)。GraphSAGE的出現(xiàn)就是為了解決這樣的問題,這篇博文中我們將會詳細得討論它。

一、Inductive learning v.s. Transductive learning

首先我們介紹一下什么是inductive learning。與其他類型的數(shù)據(jù)不同,圖數(shù)據(jù)中的每一個節(jié)點可以通過邊的關(guān)系利用其他節(jié)點的信息,這樣就產(chǎn)生了一個問題,如果訓練集上的節(jié)點通過邊關(guān)聯(lián)到了預測集或者驗證集的節(jié)點,那么在訓練的時候能否用它們的信息呢? 如果訓練時用到了測試集或驗證集樣本的信息(或者說,測試集和驗證集在訓練的時候是可見的), 我們把這種學習方式叫做transductive learning, 反之,稱為inductive learning。

顯然,我們所處理的大多數(shù)機器學習問題都是inductive learning, 因為我們刻意的將樣本集分為訓練/驗證/測試,并且訓練的時候只用訓練樣本。然而,在GCN中,訓練節(jié)點收集鄰居信息的時候,用到了測試或者驗證樣本,所以它是transductive的。

二、概述

GraphSAGE是一個inductive框架,在具體實現(xiàn)中,訓練時它僅僅保留訓練樣本到訓練樣本的邊。inductive learning 的優(yōu)點是可以利用已知節(jié)點的信息為未知節(jié)點生成Embedding. GraphSAGE 取自 Graph SAmple and aggreGatE, SAmple指如何對鄰居個數(shù)進行采樣。aggreGatE指拿到鄰居的embedding之后如何匯聚這些embedding以更新自己的embedding信息。下圖展示了GraphSAGE學習的一個過程:

對鄰居采樣

采樣后的鄰居embedding傳到節(jié)點上來,并使用一個聚合函數(shù)聚合這些鄰居信息以更新節(jié)點的embedding

根據(jù)更新后的embedding預測節(jié)點的標簽

三、算法細節(jié)

3.1 節(jié)點 Embedding 生成(即:前向傳播)算法

這一節(jié)討論的是如何給圖中的節(jié)點生成(或者說更新)embedding, 假設(shè)我們已經(jīng)完成了GraphSAGE的訓練,因此模型所有的參數(shù)(parameters)都已知了。具體來說,這些參數(shù)包括個聚合器(見下圖算法第4行)中的參數(shù), 這些聚合器被用來將鄰居embedding信息聚合到節(jié)點上,以及一系列的權(quán)重矩陣(下圖算法第5行), 這些權(quán)值矩陣被用作在模型層與層之間傳播embedding的時候做非線性變換。

下面的算法描述了我們是怎么做前向傳播的:

算法的主要部分為:

(line 1)初始化每個節(jié)點embedding為節(jié)點的特征向量

(line 3)對于每一個節(jié)點

(line 4)拿到它采樣后的鄰居的embedding并將其聚合,這里表示對鄰居采樣

(line 5)根據(jù)聚合后的鄰居embedding()和自身embedding()通過一個非線性變換()更新自身embedding.

算法里的這個比較難理解,下面單獨來說他,之前提到過,它既是聚合器的數(shù)量,也是權(quán)重矩陣的數(shù)量,還是網(wǎng)絡(luò)的層數(shù),這是因為每一層網(wǎng)絡(luò)中聚合器和權(quán)重矩陣是共享的。

網(wǎng)絡(luò)的層數(shù)可以理解為需要最大訪問到的鄰居的跳數(shù)(hops),比如在figure 1中,紅色節(jié)點的更新拿到了它一、二跳鄰居的信息,那么網(wǎng)絡(luò)層數(shù)就是2。

為了更新紅色節(jié)點,首先在第一層()我們會將藍色節(jié)點的信息聚合到紅色節(jié)點上,將綠色節(jié)點的信息聚合到藍色節(jié)點上。在第二層()紅色節(jié)點的embedding被再次更新,不過這次用的是更新后的藍色節(jié)點embedding,這樣就保證了紅色節(jié)點更新后的embedding包括藍色和綠色節(jié)點的信息。

3.2 采樣 (SAmple) 算法

GraphSAGE采用了定長抽樣的方法,具體來說,定義需要的鄰居個數(shù), 然后采用有放回的重采樣/負采樣方法達到,。保證每個節(jié)點(采樣后的)鄰居個數(shù)一致是為了把多個節(jié)點以及他們的鄰居拼成Tensor送到GPU中進行批訓練。

3.3 聚合器 (Aggregator) 架構(gòu)

GraphSAGE 提供了多種聚合器,實驗中效果最好的平均聚合器(mean aggregator),平均聚合器的思慮很簡單,每個維度取對鄰居embedding相應維度的均值,這個和GCN的做法基本一致(GCN實際上用的是求和):

舉個簡單例子,比如一個節(jié)點的3個鄰居的embedding分別為 ,按照每一維分別求均值就得到了聚合后的鄰居embedding為.

論文中還闡述了另外兩種aggregator:LSTM aggregator和Pooling aggregator, 有興趣的可以去論文中看下。

3.4 參數(shù)學習

到此為止,整個模型的架構(gòu)就講完了,那么GraphSAGE是如何學習聚合器的參數(shù)以及權(quán)重變量的呢? 在有監(jiān)督的情況下,可以使用每個節(jié)點的預測label和真實label的交叉熵作為損失函數(shù)。在無監(jiān)督的情況下,可以假設(shè)相鄰的節(jié)點的輸出embeding應當盡可能相近,因此可以設(shè)計出如下的損失函數(shù):

其中是節(jié)點的輸出embedding,是節(jié)點的鄰居(這里鄰居是廣義的,比如說如果和在一個定長的隨機游走中可達,那么我們也認為他們相鄰),是負采樣分布,是負采樣的樣本數(shù)量,所謂負采樣指我們還需要一批不是鄰居的節(jié)點作為負樣本,那么上面這個式子的意思是相鄰節(jié)點的embedding的相似度盡量大的情況下保證不相鄰節(jié)點的embedding的期望相似度盡可能小。

四、后話

GraphSAGE采用了采樣的機制,克服了GCN訓練時內(nèi)存和顯存上的限制,使得圖模型可以應用到大規(guī)模的圖結(jié)構(gòu)數(shù)據(jù)中,是目前幾乎所有工業(yè)上圖模型的雛形。然而,每個節(jié)點這么多鄰居,采樣能否考慮到鄰居的相對重要性呢,或者我們在聚合計算中能否考慮到鄰居的相對重要性? 這個問題在我們的下一篇博文Graph Attentioin Networks中做了詳細的討論。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4844

    瀏覽量

    108218
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4810

    瀏覽量

    98623
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3835

    瀏覽量

    52293

原文標題:GNN教程:GraghSAGE算法細節(jié)詳解!

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    三電平中性點電壓平衡算法詳解:從傳統(tǒng)空間矢量調(diào)制(SVPWM)到模型預測控制(MPC)

    三電平中性點電壓平衡算法詳解:從傳統(tǒng)空間矢量調(diào)制(SVPWM)到模型預測控制(MPC) 多電平逆變器(Multilevel Inverters, MLI)在現(xiàn)代電力電子技術(shù)中扮演著至關(guān)重要的角色
    的頭像 發(fā)表于 04-04 08:47 ?464次閱讀
    三電平中性點電壓平衡<b class='flag-5'>算法</b><b class='flag-5'>詳解</b>:從傳統(tǒng)空間矢量調(diào)制(SVPWM)到模型預測控制(MPC)

    電機轉(zhuǎn)子外表貼磁鋼有什么細節(jié)要求?

    在電機轉(zhuǎn)子上貼磁鋼是為了產(chǎn)生磁場,從而實現(xiàn)電機的正常運轉(zhuǎn),以下是在貼磁鋼時需要考慮的一些細節(jié)要求。
    的頭像 發(fā)表于 03-12 15:56 ?184次閱讀
    電機轉(zhuǎn)子外表貼磁鋼有什么<b class='flag-5'>細節(jié)</b>要求?

    FFT算法原理詳解

    /* 功能:將input里的數(shù)據(jù)進行快速傅里葉變換 并且輸出 */ #include #include #define FFT_LENGTH 8 double input[FFT_LENGTH]={1,1,1,1,1,1,1,1}; struct complex1{ //定義一個復數(shù)結(jié)構(gòu)體 double real; //實部 double image; //虛部 }; //將input的實數(shù)結(jié)果存放為復數(shù) struct complex1 result_dat[8]; /* 虛數(shù)的乘法 */ struct complex1 con_complex(struct complex1 a,struct complex1 b){ struct complex1 temp; temp.real=(a.real*b.real)-(a.image*b.image); temp.image=(a.image*b.real)+(a.real*b.image); return temp; } /* 簡單的a的b次方 */ int mypow(int a,int b){ int i,sum=a; if(b==0)return 1; for(i=1;i sum*=a; } return sum; } /* 簡單的求以2為底的正整數(shù) */ int log2(int n){ unsigned i=1; int sum=1; for(i;;i++){ sum*=2; if(sum>=n)break; } return i; } /* 簡單的交換數(shù)據(jù)的函數(shù) */ void swap(struct complex1 *a,struct complex1 *b){ struct complex1 temp; temp=*a; *a=*b; *b=temp; } /* dat為輸入數(shù)據(jù)的數(shù)組 N為抽樣次數(shù) 也代表周期 必須是2^N次方 */ void fft(struct complex1 dat[],unsigned char N){ /*最終 dat_buf計算出 當前蝶形運算奇數(shù)項與W 乘積 dat_org存放上一個偶數(shù)項的值 */ struct complex1 dat_buf,dat_org; /* L為幾級蝶形運算 也代表了2進制的位數(shù) n為當前級蝶形的需要次數(shù) n最初為N/2 每級蝶形運算后都要/2 i j為倒位時要用到的自增符號 同時 i也用到了L碟級數(shù) j是計算當前碟級的計算次數(shù) re_i i_copy均是倒位時用到的變量 k為當前碟級 cos(2*pi/N*k)的 k 也是e^(-j2*pi/N)*k 的 k */ unsigned char L,i,j,re_i=0,i_copy=0,k=0,fft_flag=1; //經(jīng)過觀察,發(fā)現(xiàn)每級蝶形運算需要N/2次運算,共運算N/2*log2N 次 unsigned char fft_counter=0; //在此要進行補2 N必須是2^n 在此略 //蝶形級數(shù) (L級) L=log2(N); //計算每級蝶形計算的次數(shù)(這里只是一個初始值) 之后每次要/2 //n=N/2; //對dat的順序進行倒位 for(i=1;i i_copy=i; re_i=0; for(j=L-1;j>0;j--){ //判斷i的副本最低位的數(shù)字 并且移動到最高位 次高位 .. //re_i為交換的數(shù) 每次它的數(shù)字是不能移動的 并且循環(huán)之后要清0 re_i|=((i_copy 0x01)< i_copy>>=1; } swap( dat, dat[re_i]); } //進行fft計算 for(i=0;i fft_flag=1; fft_counter=0; for(j=0;j if(fft_counter==mypow(2,i)){ //控制隔幾次,運算幾次 fft_flag=0; }else if(fft_counter==0){ //休止結(jié)束,繼續(xù)運算 fft_flag=1; } //當不判斷這個語句的時候 fft_flag保持 這樣就可以持續(xù)運算了 if(fft_flag){ dat_buf.real=cos((2*PI*k)/(N/mypow(2,L-i-1))); dat_buf.image=-sin((2*PI*k)/(N/mypow(2,L-i-1))); dat_buf=con_complex(dat[j+mypow(2,i)],dat_buf); //計算 當前蝶形運算奇數(shù)項與W 乘積 dat_org.real=dat[j].real; dat_org.image=dat[j].image; //暫存 dat[j].real=dat_org.real+dat_buf.real; dat[j].image=dat_org.image+dat_buf.image; //實部加實部 虛部加虛部 dat[j+mypow(2,i)].real=dat_org.real-dat_buf.real; dat[j+mypow(2,i)].image=dat_org.image-dat_buf.image; //實部減實部 虛部減虛部 k++; fft_counter++; }else{ fft_counter--; //運算幾次,就休止幾次 k=0; } } } } void main{ int i; //先將輸入信號轉(zhuǎn)換成復數(shù) for(i=0;i result_dat.image=0; //輸入信號是二維的,暫時不存在復數(shù) result_dat.real=input; //result_dat.real=10; //輸入信號都為實數(shù) } fft(result_dat,FFT_LENGTH); for(i=0;i input=sqrt(result_dat.real*result_dat.real+result_dat.image*result_dat.image); //取模 printf(\"%lfn\",input); } while(1); } 這個程序中input這個數(shù)組是輸入信號,在這里只模擬抽樣了8次,輸出的數(shù)據(jù)也是input,如果想看其它序列的話,可以改變FFT_LENGTH 的值以及 input里的內(nèi)容,程序輸出的是實部和虛部的模
    發(fā)表于 01-22 06:36

    網(wǎng)絡(luò)跳線:細節(jié)決定成敗的網(wǎng)絡(luò)構(gòu)建者

    在構(gòu)建一個高效、穩(wěn)定的網(wǎng)絡(luò)環(huán)境時,我們往往會關(guān)注到大型的網(wǎng)絡(luò)設(shè)備、復雜的網(wǎng)絡(luò)架構(gòu)或是先進的網(wǎng)絡(luò)技術(shù),而往往忽略了那些看似微不足道卻至關(guān)重要的細節(jié)——網(wǎng)絡(luò)跳線。然而,正是這些小小的跳線,在網(wǎng)絡(luò)的構(gòu)建
    的頭像 發(fā)表于 01-09 10:10 ?401次閱讀

    高速PCB打樣必知:細節(jié)決定成敗,這些點你不能忽視!

    23年P(guān)CBA一站式行業(yè)經(jīng)驗PCBA加工廠家今天為大家講講高速pcb打樣需要注意什么細節(jié)?高速pcb打樣需要注意的細節(jié)。在高速PCB(印刷電路板)打樣階段,為確保最終產(chǎn)品的性能和可靠性,需要注意以下
    的頭像 發(fā)表于 12-16 09:19 ?468次閱讀
    高速PCB打樣必知:<b class='flag-5'>細節(jié)</b>決定成敗,這些點你不能忽視!

    SM4算法實現(xiàn)分享(一)算法原理

    SM4分組加密算法采用的是非線性迭代結(jié)構(gòu),以字為單位進行加密、解密運算,每次迭代稱為一輪變換,每輪變換包括S盒變換、非線性變換、線性變換、合成變換。加解密算法與密鑰擴展都是采用32輪非線性迭代結(jié)構(gòu)
    發(fā)表于 10-30 08:10

    復雜的軟件算法硬件IP核的實現(xiàn)

    的實現(xiàn)的技術(shù)細節(jié),知道這些技術(shù)細節(jié)將有利于在使用 C 語言編寫算法時實現(xiàn)一些有針對性的優(yōu)化。 2.1 C to HASM HASM 是一種在 C 語言編譯到HDL 時、經(jīng)過嚴格定義的專用的語言
    發(fā)表于 10-30 07:02

    國密系列算法簡介及SM4算法原理介紹

    一、 國密系列算法簡介 國家商用密碼算法(簡稱國密/商密算法),是由我國國家密碼管理局制定并公布的密碼算法標準。其分類1所示: 圖1 國家商用密碼
    發(fā)表于 10-24 08:25

    加密算法的應用

    加密是一種保護信息安全的重要手段,近年來隨著信息技術(shù)的發(fā)展,加密技術(shù)的應用越來越廣泛。本文將介紹加密算法的發(fā)展、含義、分類及應用場景。 1. 加密算法的發(fā)展 加密算法的歷史可以追溯到古代。在
    發(fā)表于 10-24 08:03

    數(shù)據(jù)濾波算法的具體實現(xiàn)步驟是怎樣的?

    (高頻電磁、瞬時脈沖等),選擇適配的濾波算法并落地。以下以電能質(zhì)量監(jiān)測中最常用的 IIR 低通濾波(抗高頻干擾)、滑動平均濾波(抗瞬時脈沖)、卡爾曼濾波(抗動態(tài)波動) 為例,詳解具體實現(xiàn)步驟: 一、前置準備:明確濾波目標與硬件基
    的頭像 發(fā)表于 10-10 16:45 ?1031次閱讀

    DFT算法與FFT算法的優(yōu)劣分析

    一概述 在諧波分析儀中,我們常常提到的兩個詞語,就是DFT算法與FFT算法,那么一款功率分析儀/諧波分析儀采用DFT算法或者FFT算法,用戶往往關(guān)注的是能否達到所要分析諧波次數(shù)的目的,
    的頭像 發(fā)表于 08-04 09:30 ?1811次閱讀

    達夢數(shù)據(jù)庫常用管理SQL命令詳解

    達夢數(shù)據(jù)庫常用管理SQL命令詳解
    的頭像 發(fā)表于 06-17 15:12 ?7707次閱讀
    達夢數(shù)據(jù)庫常用管理SQL命令<b class='flag-5'>詳解</b>

    SVPWM的原理及法則推導和控制算法詳解

    小,使得電機轉(zhuǎn)矩脈動降低,旋轉(zhuǎn)磁場更逼近圓形,而且使直流母線電壓的利用率有了很大提高,且更易于實現(xiàn)數(shù)字化。下面將對該算法進行詳細分析闡述。 1.1 SVPWM 基本原理 SVPWM 的理論基礎(chǔ)
    發(fā)表于 06-16 17:11

    安徽京準:北斗衛(wèi)星同步時鐘的安裝與調(diào)試詳解

    安徽京準:北斗衛(wèi)星同步時鐘的安裝與調(diào)試詳解
    的頭像 發(fā)表于 06-05 10:08 ?1787次閱讀
    安徽京準:北斗衛(wèi)星同步時鐘的安裝與調(diào)試<b class='flag-5'>詳解</b>

    SSH常用命令詳解

    SSH常用命令詳解
    的頭像 發(fā)表于 06-04 11:30 ?2216次閱讀
    清新县| 萝北县| 东源县| 文山县| 金山区| 光山县| 丰顺县| 灵台县| 雅江县| 长岛县| 科技| 贵德县| 和政县| 黎平县| 奎屯市| 韶关市| 津南区| 青阳县| 黔西县| 高台县| 永顺县| 平阴县| 崇左市| 威海市| 衡阳市| 石台县| 五峰| 陆河县| 开封县| 介休市| 吉安县| 莲花县| 梁平县| 尼勒克县| 唐海县| 和静县| 云和县| 哈尔滨市| 武定县| 罗源县| 阳西县|