国产精品久久久aaaa,日日干夜夜操天天插,亚洲乱熟女香蕉一区二区三区少妇,99精品国产高清一区二区三区,国产成人精品一区二区色戒,久久久国产精品成人免费,亚洲精品毛片久久久久,99久久婷婷国产综合精品电影,国产一区二区三区任你鲁

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

GNN教程:GraghSAGE算法細節詳解!

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2020-11-24 09:32 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

引言

本文為GNN教程的第三篇文章 【GraghSAGE算法】,在GCN的博文中我們重點討論了圖神經網絡的逐層傳播公式是如何推導的,然而,GCN的訓練方式需要將鄰接矩陣和特征矩陣一起放到內存或者顯存里,在大規模圖數據上是不可取的。 其次,GCN在訓練時需要知道整個圖的結構信息(包括待預測的節點), 這在現實某些任務中也不能實現(比如用今天訓練的圖模型預測明天的數據,那么明天的節點是拿不到的)。GraphSAGE的出現就是為了解決這樣的問題,這篇博文中我們將會詳細得討論它。

一、Inductive learning v.s. Transductive learning

首先我們介紹一下什么是inductive learning。與其他類型的數據不同,圖數據中的每一個節點可以通過邊的關系利用其他節點的信息,這樣就產生了一個問題,如果訓練集上的節點通過邊關聯到了預測集或者驗證集的節點,那么在訓練的時候能否用它們的信息呢? 如果訓練時用到了測試集或驗證集樣本的信息(或者說,測試集和驗證集在訓練的時候是可見的), 我們把這種學習方式叫做transductive learning, 反之,稱為inductive learning。

顯然,我們所處理的大多數機器學習問題都是inductive learning, 因為我們刻意的將樣本集分為訓練/驗證/測試,并且訓練的時候只用訓練樣本。然而,在GCN中,訓練節點收集鄰居信息的時候,用到了測試或者驗證樣本,所以它是transductive的。

二、概述

GraphSAGE是一個inductive框架,在具體實現中,訓練時它僅僅保留訓練樣本到訓練樣本的邊。inductive learning 的優點是可以利用已知節點的信息為未知節點生成Embedding. GraphSAGE 取自 Graph SAmple and aggreGatE, SAmple指如何對鄰居個數進行采樣。aggreGatE指拿到鄰居的embedding之后如何匯聚這些embedding以更新自己的embedding信息。下圖展示了GraphSAGE學習的一個過程:

對鄰居采樣

采樣后的鄰居embedding傳到節點上來,并使用一個聚合函數聚合這些鄰居信息以更新節點的embedding

根據更新后的embedding預測節點的標簽

三、算法細節

3.1 節點 Embedding 生成(即:前向傳播)算法

這一節討論的是如何給圖中的節點生成(或者說更新)embedding, 假設我們已經完成了GraphSAGE的訓練,因此模型所有的參數(parameters)都已知了。具體來說,這些參數包括個聚合器(見下圖算法第4行)中的參數, 這些聚合器被用來將鄰居embedding信息聚合到節點上,以及一系列的權重矩陣(下圖算法第5行), 這些權值矩陣被用作在模型層與層之間傳播embedding的時候做非線性變換。

下面的算法描述了我們是怎么做前向傳播的:

算法的主要部分為:

(line 1)初始化每個節點embedding為節點的特征向量

(line 3)對于每一個節點

(line 4)拿到它采樣后的鄰居的embedding并將其聚合,這里表示對鄰居采樣

(line 5)根據聚合后的鄰居embedding()和自身embedding()通過一個非線性變換()更新自身embedding.

算法里的這個比較難理解,下面單獨來說他,之前提到過,它既是聚合器的數量,也是權重矩陣的數量,還是網絡的層數,這是因為每一層網絡中聚合器和權重矩陣是共享的。

網絡的層數可以理解為需要最大訪問到的鄰居的跳數(hops),比如在figure 1中,紅色節點的更新拿到了它一、二跳鄰居的信息,那么網絡層數就是2。

為了更新紅色節點,首先在第一層()我們會將藍色節點的信息聚合到紅色節點上,將綠色節點的信息聚合到藍色節點上。在第二層()紅色節點的embedding被再次更新,不過這次用的是更新后的藍色節點embedding,這樣就保證了紅色節點更新后的embedding包括藍色和綠色節點的信息。

3.2 采樣 (SAmple) 算法

GraphSAGE采用了定長抽樣的方法,具體來說,定義需要的鄰居個數, 然后采用有放回的重采樣/負采樣方法達到,。保證每個節點(采樣后的)鄰居個數一致是為了把多個節點以及他們的鄰居拼成Tensor送到GPU中進行批訓練。

3.3 聚合器 (Aggregator) 架構

GraphSAGE 提供了多種聚合器,實驗中效果最好的平均聚合器(mean aggregator),平均聚合器的思慮很簡單,每個維度取對鄰居embedding相應維度的均值,這個和GCN的做法基本一致(GCN實際上用的是求和):

舉個簡單例子,比如一個節點的3個鄰居的embedding分別為 ,按照每一維分別求均值就得到了聚合后的鄰居embedding為.

論文中還闡述了另外兩種aggregator:LSTM aggregator和Pooling aggregator, 有興趣的可以去論文中看下。

3.4 參數學習

到此為止,整個模型的架構就講完了,那么GraphSAGE是如何學習聚合器的參數以及權重變量的呢? 在有監督的情況下,可以使用每個節點的預測label和真實label的交叉熵作為損失函數。在無監督的情況下,可以假設相鄰的節點的輸出embeding應當盡可能相近,因此可以設計出如下的損失函數:

其中是節點的輸出embedding,是節點的鄰居(這里鄰居是廣義的,比如說如果和在一個定長的隨機游走中可達,那么我們也認為他們相鄰),是負采樣分布,是負采樣的樣本數量,所謂負采樣指我們還需要一批不是鄰居的節點作為負樣本,那么上面這個式子的意思是相鄰節點的embedding的相似度盡量大的情況下保證不相鄰節點的embedding的期望相似度盡可能小。

四、后話

GraphSAGE采用了采樣的機制,克服了GCN訓練時內存和顯存上的限制,使得圖模型可以應用到大規模的圖結構數據中,是目前幾乎所有工業上圖模型的雛形。然而,每個節點這么多鄰居,采樣能否考慮到鄰居的相對重要性呢,或者我們在聚合計算中能否考慮到鄰居的相對重要性? 這個問題在我們的下一篇博文Graph Attentioin Networks中做了詳細的討論。

責任編輯:lq

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4838

    瀏覽量

    107784
  • 算法
    +關注

    關注

    23

    文章

    4784

    瀏覽量

    98062
  • 模型
    +關注

    關注

    1

    文章

    3752

    瀏覽量

    52111

原文標題:GNN教程:GraghSAGE算法細節詳解!

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    FFT算法原理詳解

    /* 功能:將input里的數據進行快速傅里葉變換 并且輸出 */ #include #include #define FFT_LENGTH 8 double input[FFT_LENGTH]={1,1,1,1,1,1,1,1}; struct complex1{ //定義一個復數結構體 double real; //實部 double image; //虛部 }; //將input的實數結果存放為復數 struct complex1 result_dat[8]; /* 虛數的乘法 */ struct complex1 con_complex(struct complex1 a,struct complex1 b){ struct complex1 temp; temp.real=(a.real*b.real)-(a.image*b.image); temp.image=(a.image*b.real)+(a.real*b.image); return temp; } /* 簡單的a的b次方 */ int mypow(int a,int b){ int i,sum=a; if(b==0)return 1; for(i=1;i sum*=a; } return sum; } /* 簡單的求以2為底的正整數 */ int log2(int n){ unsigned i=1; int sum=1; for(i;;i++){ sum*=2; if(sum>=n)break; } return i; } /* 簡單的交換數據的函數 */ void swap(struct complex1 *a,struct complex1 *b){ struct complex1 temp; temp=*a; *a=*b; *b=temp; } /* dat為輸入數據的數組 N為抽樣次數 也代表周期 必須是2^N次方 */ void fft(struct complex1 dat[],unsigned char N){ /*最終 dat_buf計算出 當前蝶形運算奇數項與W 乘積 dat_org存放上一個偶數項的值 */ struct complex1 dat_buf,dat_org; /* L為幾級蝶形運算 也代表了2進制的位數 n為當前級蝶形的需要次數 n最初為N/2 每級蝶形運算后都要/2 i j為倒位時要用到的自增符號 同時 i也用到了L碟級數 j是計算當前碟級的計算次數 re_i i_copy均是倒位時用到的變量 k為當前碟級 cos(2*pi/N*k)的 k 也是e^(-j2*pi/N)*k 的 k */ unsigned char L,i,j,re_i=0,i_copy=0,k=0,fft_flag=1; //經過觀察,發現每級蝶形運算需要N/2次運算,共運算N/2*log2N 次 unsigned char fft_counter=0; //在此要進行補2 N必須是2^n 在此略 //蝶形級數 (L級) L=log2(N); //計算每級蝶形計算的次數(這里只是一個初始值) 之后每次要/2 //n=N/2; //對dat的順序進行倒位 for(i=1;i i_copy=i; re_i=0; for(j=L-1;j>0;j--){ //判斷i的副本最低位的數字 并且移動到最高位 次高位 .. //re_i為交換的數 每次它的數字是不能移動的 并且循環之后要清0 re_i|=((i_copy 0x01)< i_copy>>=1; } swap( dat, dat[re_i]); } //進行fft計算 for(i=0;i fft_flag=1; fft_counter=0; for(j=0;j if(fft_counter==mypow(2,i)){ //控制隔幾次,運算幾次 fft_flag=0; }else if(fft_counter==0){ //休止結束,繼續運算 fft_flag=1; } //當不判斷這個語句的時候 fft_flag保持 這樣就可以持續運算了 if(fft_flag){ dat_buf.real=cos((2*PI*k)/(N/mypow(2,L-i-1))); dat_buf.image=-sin((2*PI*k)/(N/mypow(2,L-i-1))); dat_buf=con_complex(dat[j+mypow(2,i)],dat_buf); //計算 當前蝶形運算奇數項與W 乘積 dat_org.real=dat[j].real; dat_org.image=dat[j].image; //暫存 dat[j].real=dat_org.real+dat_buf.real; dat[j].image=dat_org.image+dat_buf.image; //實部加實部 虛部加虛部 dat[j+mypow(2,i)].real=dat_org.real-dat_buf.real; dat[j+mypow(2,i)].image=dat_org.image-dat_buf.image; //實部減實部 虛部減虛部 k++; fft_counter++; }else{ fft_counter--; //運算幾次,就休止幾次 k=0; } } } } void main{ int i; //先將輸入信號轉換成復數 for(i=0;i result_dat.image=0; //輸入信號是二維的,暫時不存在復數 result_dat.real=input; //result_dat.real=10; //輸入信號都為實數 } fft(result_dat,FFT_LENGTH); for(i=0;i input=sqrt(result_dat.real*result_dat.real+result_dat.image*result_dat.image); //取模 printf(\"%lfn\",input); } while(1); } 這個程序中input這個數組是輸入信號,在這里只模擬抽樣了8次,輸出的數據也是input,如果想看其它序列的話,可以改變FFT_LENGTH 的值以及 input里的內容,程序輸出的是實部和虛部的模
    發表于 01-22 06:36

    網絡跳線:細節決定成敗的網絡構建者

    在構建一個高效、穩定的網絡環境時,我們往往會關注到大型的網絡設備、復雜的網絡架構或是先進的網絡技術,而往往忽略了那些看似微不足道卻至關重要的細節——網絡跳線。然而,正是這些小小的跳線,在網絡的構建
    的頭像 發表于 01-09 10:10 ?276次閱讀

    高速PCB打樣必知:細節決定成敗,這些點你不能忽視!

    23年PCBA一站式行業經驗PCBA加工廠家今天為大家講講高速pcb打樣需要注意什么細節?高速pcb打樣需要注意的細節。在高速PCB(印刷電路板)打樣階段,為確保最終產品的性能和可靠性,需要注意以下
    的頭像 發表于 12-16 09:19 ?329次閱讀
    高速PCB打樣必知:<b class='flag-5'>細節</b>決定成敗,這些點你不能忽視!

    SM4算法實現分享(一)算法原理

    SM4分組加密算法采用的是非線性迭代結構,以字為單位進行加密、解密運算,每次迭代稱為一輪變換,每輪變換包括S盒變換、非線性變換、線性變換、合成變換。加解密算法與密鑰擴展都是采用32輪非線性迭代結構
    發表于 10-30 08:10

    復雜的軟件算法硬件IP核的實現

    的實現的技術細節,知道這些技術細節將有利于在使用 C 語言編寫算法時實現一些有針對性的優化。 2.1 C to HASM HASM 是一種在 C 語言編譯到HDL 時、經過嚴格定義的專用的語言
    發表于 10-30 07:02

    國密系列算法簡介及SM4算法原理介紹

    一、 國密系列算法簡介 國家商用密碼算法(簡稱國密/商密算法),是由我國國家密碼管理局制定并公布的密碼算法標準。其分類1所示: 圖1 國家商用密碼
    發表于 10-24 08:25

    加密算法的應用

    加密是一種保護信息安全的重要手段,近年來隨著信息技術的發展,加密技術的應用越來越廣泛。本文將介紹加密算法的發展、含義、分類及應用場景。 1. 加密算法的發展 加密算法的歷史可以追溯到古代。在
    發表于 10-24 08:03

    數據濾波算法的具體實現步驟是怎樣的?

    (高頻電磁、瞬時脈沖等),選擇適配的濾波算法并落地。以下以電能質量監測中最常用的 IIR 低通濾波(抗高頻干擾)、滑動平均濾波(抗瞬時脈沖)、卡爾曼濾波(抗動態波動) 為例,詳解具體實現步驟: 一、前置準備:明確濾波目標與硬件基
    的頭像 發表于 10-10 16:45 ?820次閱讀

    DFT算法與FFT算法的優劣分析

    一概述 在諧波分析儀中,我們常常提到的兩個詞語,就是DFT算法與FFT算法,那么一款功率分析儀/諧波分析儀采用DFT算法或者FFT算法,用戶往往關注的是能否達到所要分析諧波次數的目的,
    的頭像 發表于 08-04 09:30 ?1412次閱讀

    SVPWM的原理及法則推導和控制算法詳解

    小,使得電機轉矩脈動降低,旋轉磁場更逼近圓形,而且使直流母線電壓的利用率有了很大提高,且更易于實現數字化。下面將對該算法進行詳細分析闡述。 1.1 SVPWM 基本原理 SVPWM 的理論基礎
    發表于 06-16 17:11

    安徽京準:北斗衛星同步時鐘的安裝與調試詳解

    安徽京準:北斗衛星同步時鐘的安裝與調試詳解
    的頭像 發表于 06-05 10:08 ?1545次閱讀
    安徽京準:北斗衛星同步時鐘的安裝與調試<b class='flag-5'>詳解</b>

    SSH常用命令詳解

    SSH常用命令詳解
    的頭像 發表于 06-04 11:30 ?2013次閱讀

    芯片新關稅涉及的品牌/標簽/產地—詳解

    芯片新關稅涉及的品牌/標簽/產地—詳解
    的頭像 發表于 04-16 17:44 ?1057次閱讀
    芯片新關稅涉及的品牌/標簽/產地—<b class='flag-5'>詳解</b>

    三維掃描儀新品 NimbleTrack-CR 極致細節,靈動無線!

    搭載高性能工業相機與智能優化算法,精準還原表面細小紋理與復雜結構,賦能工業精密零部件、藝術文博等領域三維數字化革新,從工業產線質量控制到千年文脈的數字化重生,讓每一處細節成為解鎖智造標準與文明密碼的全能密鑰。 細節捕捉 纖毫畢現
    的頭像 發表于 03-20 15:54 ?804次閱讀
    三維掃描儀新品  NimbleTrack-CR 極致<b class='flag-5'>細節</b>,靈動無線!

    SVPWM的原理及法則推導和控制算法詳解

    ,而且使直流母線電壓的利用率有了很大提高,且更易于實現數字化。下面將對該算法進行詳細分析闡述。 文章過長,請點擊下方可查閱*附件:SVPWM的原理及法則推導和控制算法詳解.pdf
    發表于 03-14 14:51