《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 通信與網(wǎng)絡(luò) > 設(shè)計(jì)應(yīng)用 > 基于直接高階注意力和多尺度路由的圖神經(jīng)網(wǎng)絡(luò)
基于直接高階注意力和多尺度路由的圖神經(jīng)網(wǎng)絡(luò)
信息技術(shù)與網(wǎng)絡(luò)安全 6期
楊廣乾,李金龍
(中國(guó)科學(xué)技術(shù)大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,安徽 合肥230026)
摘要: 圖神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制在處理圖結(jié)構(gòu)化數(shù)據(jù)方面表現(xiàn)出優(yōu)異的性能。傳統(tǒng)的圖注意力計(jì)算直接連接的節(jié)點(diǎn)之間的注意力,并通過(guò)堆疊層數(shù)隱式獲取高階信息。盡管在圖注意力機(jī)制方面目前已有廣泛的研究,但用于注意力計(jì)算的堆疊范式在建模遠(yuǎn)程依賴方面效果較差。為了提高表達(dá)能力,設(shè)計(jì)了一種新穎的直接注意力機(jī)制,這一機(jī)制通過(guò)K階鄰接矩陣直接計(jì)算高階鄰居之間的注意力。通過(guò)自適應(yīng)路由聚合過(guò)程進(jìn)一步傳播高階信息,這使得聚合過(guò)程更靈活地適應(yīng)不同圖的特性。在引文網(wǎng)絡(luò)上的節(jié)點(diǎn)分類任務(wù)上進(jìn)行了大量的實(shí)驗(yàn)。實(shí)驗(yàn)表明,該方法優(yōu)于最先進(jìn)的基線模型。
中圖分類號(hào): TP391
文獻(xiàn)標(biāo)識(shí)碼: A
DOI: 10.19358/j.issn.2096-5133.2022.06.011
引用格式: 楊廣乾,李金龍. 基于直接高階注意力和多尺度路由的圖神經(jīng)網(wǎng)絡(luò)[J].信息技術(shù)與網(wǎng)絡(luò)安全,2022,41(6):64-72.
Direct high-order attention and multi-scale routing for graph neural networks
Yang Guangqian,Li Jinlong
(School of Computer Science and Technology,University of Science and Technology of China,Hefei 230026,China)
Abstract: Recently, the attention mechanism in Graph Neural Networks shows excellent performance in processing graph structured data. Traditional graph attention calculates the attention between directly connected nodes, and implicitly gets high-order information by stacking layers. Despite the extensive research about the graph attention mechanism, we argue that the stacking paradigm for attention calculation is less effective in modeling long-range dependency. To improve the expression ability, we design a novel direct attention mechanism, which directly calculates attention between higher-order neighbors via K-power adjacency matrix. We further propagate the higher-order information with an adaptive routing aggregation process, which makes the aggregation more flexible to adjust to the property of different graphs. We perform extensive experiments on node classifications on citation networks. Experiments shows that our method consistently outperforms the state-of-the-art baselines, which validates the effectiveness of our method.
Key words : graph neural networks;attention;dynamic routing

0 引言

圖結(jié)構(gòu)化數(shù)據(jù)廣泛存在于現(xiàn)實(shí)世界中,圖神經(jīng)網(wǎng)絡(luò)(GNN)已被證明可以有效地學(xué)習(xí)圖結(jié)構(gòu)化數(shù)據(jù)背后的知識(shí)[1-2]。圖神經(jīng)網(wǎng)絡(luò)基于傳播機(jī)制,通過(guò)聚合圖中節(jié)點(diǎn)的鄰居信息來(lái)學(xué)習(xí)潛在表示,可以用于下游任務(wù),例如節(jié)點(diǎn)分類[2-3]、圖分類[4-5]、連接預(yù)測(cè)等。

受自然語(yǔ)言處理和計(jì)算機(jī)視覺(jué)中注意力機(jī)制的啟發(fā),研究人員也開(kāi)始探索圖結(jié)構(gòu)學(xué)習(xí)中的注意力機(jī)制。最廣泛使用的注意力機(jī)制是圖注意力網(wǎng)絡(luò),它已被證明具有出色的性能。圖注意力在消息傳遞過(guò)程中計(jì)算每對(duì)鄰居的注意力分?jǐn)?shù),以衡量節(jié)點(diǎn)的重要性,使得圖中的歸納學(xué)習(xí)成為可能。基于這項(xiàng)工作,后續(xù)工作[9-11]又進(jìn)行了許多對(duì)圖注意力的研究。





本文詳細(xì)內(nèi)容請(qǐng)下載http://www.xxav2194.com/resource/share/2000004537





作者信息:

楊廣乾,李金龍

(中國(guó)科學(xué)技術(shù)大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,安徽 合肥230026)


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 国产三级在线观看视频| 天天摸天天看天天做天天爽| 亚洲婷婷天堂在线综合| 羞羞网站在线免费观看| 国产精品国色综合久久| s级爆乳玩具酱国产vip皮裤| 日本男人操女人| 亚洲成a人一区二区三区| 精品久久久久久久九九九精品 | 精品国产乱码久久久久久浪潮 | 久久久久国产精品免费免费搜索| 欧美最猛黑人xxxx黑人| 又大又硬又爽又深免费看| 99heicom视频| 国产精品视频不卡| www国产无套内射com| 无限资源日本免费2018| 亚洲中文字幕久久无码| 波多野结衣一区二区三区高清av | 暖暖直播在线观看| 亚洲精品www久久久久久| 精品国产呦系列在线看| 国产人人为我我为人| jizz之18| 国产麻豆视频免费观看| 一二三四视频社区在线| 摸进她的内裤里疯狂揉她动图视频| 亚洲AV人无码综合在线观看| 欧美疯狂做受xxxxx高潮| 便器调教(肉体狂乱)小说| 美国式禁忌三人伦| 国产免费观看黄AV片| 日本另类z0zx| 国产综合激情在线亚洲第一页| yellow网站在线观看| 护士们的放荡交换全文| 久久大香香蕉国产| 最近更新中文字幕第一页| 亚洲成av人片在线观看www| 片成年免费观看网站黄| 刘伯温致力打造火热全网|