圖神經(jīng)網(wǎng)絡(luò)GNN算法基本原理詳解
前言
本文結(jié)合一個(gè)具體的無向圖來對(duì)最簡單的一種GNN進(jìn)行推導(dǎo)。本文第一部分是數(shù)據(jù)介紹,第二部分為推導(dǎo)過程中需要用的變量的定義,第三部分是GNN的具體推導(dǎo)過程,最后一部分為自己對(duì)GNN的一些看法與總結(jié)。
1. 數(shù)據(jù)
利用networkx簡單生成一個(gè)無向圖:
# -*- coding: utf-8 -*- """ @Time : 2021/12/21 11:23 @Author :KI @File :gnn_basic.py @Motto:Hungry And Humble """ import networkx as nx import numpy as np import matplotlib.pyplot as plt import pandas as pd G = nx.Graph() node_features = [[2, 3], [4, 7], [3, 7], [4, 5], [5, 5]] edges = [(1, 2), (1, 3), (2, 4), (2, 5), (1, 3), (3, 5), (3, 4)] edge_features = [[1, 3], [4, 1], [1, 5], [5, 3], [5, 6], [5, 4], [4, 3]] colors = [] edge_colors = [] # add nodes for i in range(1, len(node_features) + 1): G.add_node(i, feature=str(i) + ':(' + str(node_features[i-1][0]) + ',' + str(node_features[i-1][1]) + ')') colors.append('#DCBB8A') # add edges for i in range(1, len(edge_features) + 1): G.add_edge(edges[i-1][0], edges[i-1][1], feature='(' + str(edge_features[i-1][0]) + ',' + str(edge_features[i-1][1]) + ')') edge_colors.append('#3CA9C4') # draw fig, ax = plt.subplots() pos = nx.spring_layout(G) nx.draw(G, pos=pos, node_size=2000, node_color=colors, edge_color='black') node_labels = nx.get_node_attributes(G, 'feature') nx.draw_networkx_labels(G, pos=pos, labels=node_labels, node_size=2000, node_color=colors, font_color='r', font_size=14) edge_labels = nx.get_edge_attributes(G, 'feature') nx.draw_networkx_edge_labels(G, pos, edge_labels=edge_labels, font_size=14, font_color='#7E8877') ax.set_facecolor('deepskyblue') ax.axis('off') fig.set_facecolor('deepskyblue') plt.show()
如下所示:
其中,每一個(gè)節(jié)點(diǎn)都有自己的一些特征,比如在社交網(wǎng)絡(luò)中,每個(gè)節(jié)點(diǎn)(用戶)有性別以及年齡等特征。
5個(gè)節(jié)點(diǎn)的特征向量依次為:
[[2, 3], [4, 7], [3, 7], [4, 5], [5, 5]]
同樣,6條邊的特征向量為:
[[1, 3], [4, 1], [1, 5], [5, 3], [5, 6], [5, 4], [4, 3]]
2. 變量定義
特征向量實(shí)際上也就是節(jié)點(diǎn)或者邊的標(biāo)簽,這個(gè)是圖本身的屬性,一直保持不變。
3. GNN算法
GNN算法的完整描述如下:Forward向前計(jì)算狀態(tài),Backward向后計(jì)算梯度,主函數(shù)通過向前和向后迭代調(diào)用來最小化損失。
主函數(shù)中:
上述描述只是一個(gè)總體的概述,可以略過先不看。
3.1 Forward
早期的GNN都是RecGNN,即循環(huán)GNN。這種類型的GNN基于信息傳播機(jī)制: GNN通過不斷交換鄰域信息來更新節(jié)點(diǎn)狀態(tài),直到達(dá)到穩(wěn)定均衡。節(jié)點(diǎn)的狀態(tài)向量 x 由以下 f w ?函數(shù)來進(jìn)行周期性更新:
解析上述公式:對(duì)于節(jié)點(diǎn) n ,假設(shè)為節(jié)點(diǎn)1,更新其狀態(tài)需要以下數(shù)據(jù)參與:
這里的fw只是形式化的定義,不同的GNN有不同的定義,如隨機(jī)穩(wěn)態(tài)嵌入(SSE)中定義如下:
由更新公式可知,當(dāng)所有節(jié)點(diǎn)的狀態(tài)都趨于穩(wěn)定狀態(tài)時(shí),此時(shí)所有節(jié)點(diǎn)的狀態(tài)向量都包含了其鄰居節(jié)點(diǎn)和相連邊的信息。
這與圖嵌入有些類似:如果是節(jié)點(diǎn)嵌入,我們最終得到的是一個(gè)節(jié)點(diǎn)的向量表示,而這些向量是根據(jù)隨機(jī)游走序列得到的,隨機(jī)游走序列中又包括了節(jié)點(diǎn)的鄰居信息, 因此節(jié)點(diǎn)的向量表示中包含了連接信息。
證明上述更新過程能夠收斂需要用到不動(dòng)點(diǎn)理論,這里簡單描述下:
如果我們有以下更新公式:
GNN的Foward描述如下:
解釋:
3.2 Backward
在節(jié)點(diǎn)嵌入中,我們最終得到了每個(gè)節(jié)點(diǎn)的表征向量,此時(shí)我們就能利用這些向量來進(jìn)行聚類、節(jié)點(diǎn)分類、鏈接預(yù)測(cè)等等。
GNN中類似,得到這些節(jié)點(diǎn)狀態(tài)向量的最終形式不是我們的目的,我們的目的是利用這些節(jié)點(diǎn)狀態(tài)向量來做一些實(shí)際的應(yīng)用,比如節(jié)點(diǎn)標(biāo)簽預(yù)測(cè)。
因此,如果想要預(yù)測(cè)的話,我們就需要一個(gè)輸出函數(shù)來對(duì)節(jié)點(diǎn)狀態(tài)進(jìn)行變換,得到我們要想要的東西:
最容易想到的就是將節(jié)點(diǎn)狀態(tài)向量經(jīng)過一個(gè)前饋神經(jīng)網(wǎng)絡(luò)得到輸出,也就是說 g w g_w gw?可以是一個(gè)FNN,同樣的, f w f_w fw?也可以是一個(gè)FNN:
我們利用 g w g_w gw?函數(shù)對(duì)節(jié)點(diǎn) n n n收斂后的狀態(tài)向量 x n x_n xn?以及其特征向量 l n l_n ln?進(jìn)行變換,就能得到我們想要的輸出,比如某一類別,某一具體的數(shù)值等等。
在BP算法中,我們有了輸出后,就能算出損失,然后利用損失反向傳播算出梯度,最后再利用梯度下降法對(duì)神經(jīng)網(wǎng)絡(luò)的參數(shù)進(jìn)行更新。
對(duì)于某一節(jié)點(diǎn)的損失(比如回歸)我們可以簡單定義如下:
有了z(t)后,我們就能求導(dǎo)了:
z(t)的求解方法在Backward中有描述:
因此,在Backward中需要計(jì)算以下導(dǎo)數(shù):
4.總結(jié)與展望
本文所講的GNN是最原始的GNN,此時(shí)的GNN存在著不少的問題,比如對(duì)不動(dòng)點(diǎn)隱藏狀態(tài)的更新比較低效。
由于CNN在CV領(lǐng)域的成功,許多重新定義圖形數(shù)據(jù)卷積概念的方法被提了出來,圖卷積神經(jīng)網(wǎng)絡(luò)ConvGNN也被提了出來,ConvGNN被分為兩大類:頻域方法(spectral-based method )和空間域方法(spatial-based method)。2009年,Micheli在繼承了來自RecGNN的消息傳遞思想的同時(shí),在架構(gòu)上復(fù)合非遞歸層,首次解決了圖的相互依賴問題。在過去的幾年里還開發(fā)了許多替代GNN,包括GAE和STGNN。這些學(xué)習(xí)框架可以建立在RecGNN、ConvGNN或其他用于圖形建模的神經(jīng)架構(gòu)上。
GNN是用于圖數(shù)據(jù)的深度學(xué)習(xí)架構(gòu),它將端到端學(xué)習(xí)與歸納推理相結(jié)合,業(yè)界普遍認(rèn)為其有望解決深度學(xué)習(xí)無法處理的因果推理、可解釋性等一系列瓶頸問題,是未來3到5年的重點(diǎn)方向。
因此,不僅僅是GNN,圖領(lǐng)域的相關(guān)研究都是比較有前景的,這方面的應(yīng)用也十分廣泛,比如推薦系統(tǒng)、計(jì)算機(jī)視覺、物理/化學(xué)(生命科學(xué))、藥物發(fā)現(xiàn)等等。
以上就是圖神經(jīng)網(wǎng)絡(luò)GNN算法基本原理詳解的詳細(xì)內(nèi)容,更多關(guān)于圖神經(jīng)網(wǎng)絡(luò)GNN算法的資料請(qǐng)關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python?裝飾器常用的創(chuàng)建方式及源碼示例解析
裝飾器(decorator)是一種高級(jí)Python語法,可以對(duì)一個(gè)函數(shù)、方法或者類進(jìn)行加工,這篇文章主要介紹了Python?裝飾器常用的創(chuàng)建方式及解析,需要的朋友可以參考下2022-04-04CPython 垃圾收集器檢測(cè)循環(huán)引用詳解
這篇文章主要為大家介紹了CPython 垃圾收集器檢測(cè)循環(huán)引用詳解,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進(jìn)步,早日升職加薪2022-10-10pytorch geometric的GNN、GCN的節(jié)點(diǎn)分類方式
這篇文章主要介紹了pytorch geometric的GNN、GCN的節(jié)點(diǎn)分類方式,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教2022-12-12基于pytorch 預(yù)訓(xùn)練的詞向量用法詳解
今天小編就為大家分享一篇基于pytorch 預(yù)訓(xùn)練的詞向量用法詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過來看看吧2020-01-01詳解pycharm連接遠(yuǎn)程linux服務(wù)器的虛擬環(huán)境的方法
這篇文章主要介紹了pycharm連接遠(yuǎn)程linux服務(wù)器的虛擬環(huán)境的詳細(xì)教程,本文通過圖文并茂的形式給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-11-11基于Python的OpenCV骨架化圖像并顯示(skeletonize)
這篇文章主要介紹了基于Python的OpenCV骨架化圖像并顯示(skeletonize),文中附含詳細(xì)的示例代碼,教大家來實(shí)現(xiàn)完成,有需要的可以參考下2021-08-08Flask交互基礎(chǔ)(GET、 POST 、PUT、 DELETE)的使用
這篇文章主要介紹了Flask交互基礎(chǔ)(GET、 POST 、PUT、 DELETE)的使用,文中通過示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2021-04-04python的列表生成式,生成器和generator對(duì)象你了解嗎
這篇文章主要為大家詳細(xì)介紹了python的列表生成式,生成器和generator對(duì)象,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下,希望能夠給你帶來幫助2022-03-03