《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 通信與網(wǎng)絡(luò) > 設(shè)計應(yīng)用 > 基于直接高階注意力和多尺度路由的圖神經(jīng)網(wǎng)絡(luò)
基于直接高階注意力和多尺度路由的圖神經(jīng)網(wǎng)絡(luò)
信息技術(shù)與網(wǎng)絡(luò)安全 6期
楊廣乾,李金龍
(中國科學(xué)技術(shù)大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院,安徽 合肥230026)
摘要: 圖神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制在處理圖結(jié)構(gòu)化數(shù)據(jù)方面表現(xiàn)出優(yōu)異的性能。傳統(tǒng)的圖注意力計算直接連接的節(jié)點之間的注意力,并通過堆疊層數(shù)隱式獲取高階信息。盡管在圖注意力機(jī)制方面目前已有廣泛的研究,但用于注意力計算的堆疊范式在建模遠(yuǎn)程依賴方面效果較差。為了提高表達(dá)能力,設(shè)計了一種新穎的直接注意力機(jī)制,這一機(jī)制通過K階鄰接矩陣直接計算高階鄰居之間的注意力。通過自適應(yīng)路由聚合過程進(jìn)一步傳播高階信息,這使得聚合過程更靈活地適應(yīng)不同圖的特性。在引文網(wǎng)絡(luò)上的節(jié)點分類任務(wù)上進(jìn)行了大量的實驗。實驗表明,該方法優(yōu)于最先進(jìn)的基線模型。
中圖分類號: TP391
文獻(xiàn)標(biāo)識碼: A
DOI: 10.19358/j.issn.2096-5133.2022.06.011
引用格式: 楊廣乾,李金龍. 基于直接高階注意力和多尺度路由的圖神經(jīng)網(wǎng)絡(luò)[J].信息技術(shù)與網(wǎng)絡(luò)安全,2022,41(6):64-72.
Direct high-order attention and multi-scale routing for graph neural networks
Yang Guangqian,Li Jinlong
(School of Computer Science and Technology,University of Science and Technology of China,Hefei 230026,China)
Abstract: Recently, the attention mechanism in Graph Neural Networks shows excellent performance in processing graph structured data. Traditional graph attention calculates the attention between directly connected nodes, and implicitly gets high-order information by stacking layers. Despite the extensive research about the graph attention mechanism, we argue that the stacking paradigm for attention calculation is less effective in modeling long-range dependency. To improve the expression ability, we design a novel direct attention mechanism, which directly calculates attention between higher-order neighbors via K-power adjacency matrix. We further propagate the higher-order information with an adaptive routing aggregation process, which makes the aggregation more flexible to adjust to the property of different graphs. We perform extensive experiments on node classifications on citation networks. Experiments shows that our method consistently outperforms the state-of-the-art baselines, which validates the effectiveness of our method.
Key words : graph neural networks;attention;dynamic routing

0 引言

圖結(jié)構(gòu)化數(shù)據(jù)廣泛存在于現(xiàn)實世界中,圖神經(jīng)網(wǎng)絡(luò)(GNN)已被證明可以有效地學(xué)習(xí)圖結(jié)構(gòu)化數(shù)據(jù)背后的知識[1-2]。圖神經(jīng)網(wǎng)絡(luò)基于傳播機(jī)制,通過聚合圖中節(jié)點的鄰居信息來學(xué)習(xí)潛在表示,可以用于下游任務(wù),例如節(jié)點分類[2-3]、圖分類[4-5]、連接預(yù)測等。

受自然語言處理和計算機(jī)視覺中注意力機(jī)制的啟發(fā),研究人員也開始探索圖結(jié)構(gòu)學(xué)習(xí)中的注意力機(jī)制。最廣泛使用的注意力機(jī)制是圖注意力網(wǎng)絡(luò),它已被證明具有出色的性能。圖注意力在消息傳遞過程中計算每對鄰居的注意力分?jǐn)?shù),以衡量節(jié)點的重要性,使得圖中的歸納學(xué)習(xí)成為可能。基于這項工作,后續(xù)工作[9-11]又進(jìn)行了許多對圖注意力的研究。





本文詳細(xì)內(nèi)容請下載http://m.xxav2194.com/resource/share/2000004537





作者信息:

楊廣乾,李金龍

(中國科學(xué)技術(shù)大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院,安徽 合肥230026)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 国产xxxx视频在线观看| 夜先锋av资源网站| 亚洲中文字幕第一页在线| 精品无码久久久久国产| 国产欧美日韩综合精品二区 | 久久精品噜噜噜成人av| 激性欧美激情在线| 啦啦啦啦在线直播免费播放| 日本在线xxxx| 国语自产精品视频在线第| 中文字字幕在线精品乱码app| 旧里番yy6080| 亚洲欧美日韩一区在线观看| 精品四虎免费观看国产高清午夜 | 无码人妻一区二区三区免费视频| 亚洲国产成人综合| 男人的天堂在线免费视频| 国产一级淫片视频免费看| 欧美亚洲另类视频| 国精产品一区一区三区MBA下载| 两个人看的www免费视频| 日韩欧美在线观看一区| 亚洲日韩av无码中文| 男女做性猛烈叫床视频免费| 国产一区二区三区日韩欧美 | 日韩大片高清播放器| 亚洲成a人片在线观看天堂无码 | 精品国产福利片在线观看| 国产免费无码av片在线观看不卡| 窝窝午夜色视频国产精品东北| 天天干天天摸天天操| 中文国产成人精品久久不卡| 日韩一区精品视频一区二区| 亚洲人精品亚洲人成在线| 热狗福利ap青草视频入口在线观看p引导下载花季传媒 | 岳的大白屁股光溜溜| 久久99国产视频| 日韩在线小视频| 亚洲av无码精品色午夜果冻不卡| 欧美特黄三级电影aaa免费| 免费a级毛片在线播放|