利用变分自编码器进行网络表示学习*

2019-10-24 07:45张燕平
计算机与生活 2019年10期
关键词:编码器向量矩阵

张 蕾,钱 峰,赵 姝,陈 洁,张燕平

1.安徽大学 计算机科学与技术学院,合肥230601

2.铜陵学院 数学与计算机学院,安徽 铜陵244061

+通讯作者E-mail:zhaoshuzs2002@hotmail.com

1 引言

网络表示学习(network representation learning,NRL)[1]是机器学习领域中一个重要部分,主要任务是学习能够保持原始网络结构的低维节点表示,使得较大相似度的节点具有类似的向量表示。NRL不仅可解决与网络数据相关的高维和稀疏性问题,还可通过应用基于向量的机器学习方法,在新的向量空间中有效地解决下游应用任务,例如节点分类[2]、链接预测[3]、社团挖掘[4]、信息推荐[5]。

目前,主流的NRL 方法有随机游走方法(例如DeepWalk[6]、UPP-SNE(user profile preserving social network embedding)[7])、矩阵分解方法(例如HOPE(high order proximity preserved embedding)[8]、DNE(discrete network embedding)[9])、深度学习方法等。深度学习方法包括基于自编码器(auto encoder,AE)[10](例如DNGR[11](deep neural graph representations)、SDNE(structural deep network embedding)[12])和图卷积网络(graph convolutional network,GCN)[13](例如GraphSage[14])的方法。这些方法根据拓扑结构或结合节点属性,从不同角度出发,最终得到网络节点在低维、密集空间中的向量表示。

经典的NRL 方法(例如Node2Vec[15]、LINE(large scale information network embedding)[16]、GraRep[17])仅依赖拓扑结构捕获节点间的一阶、二阶甚至高阶相似性,进而学习到网络的节点表示。然而,在许多实际场景中,纯粹依赖拓扑结构学习期望的节点表示是不充分的。例如,在社交网络中,用户的兴趣可能非常相似,但是他们之间没有交互并且没有共同的朋友,因此他们的兴趣相似性无法被基于结构的NRL 方法有效地捕获。在这种情况下,应该利用其他外部信息作为补充,帮助学习到更好的节点表示。通常,真实世界网络中的节点拥有与之相关联的属性信息。例如,社交网络中每个用户的配置文件和引文网络中每篇论文的元数据。节点属性不仅可衡量属性间的相似性,而且还影响节点间的关系的形成。因此节点属性对于衡量节点间的相似性很重要,将它们结合到表示学习过程中可望获得更好的节点特征表示。

通过结合属性NRL 方法(例如TADW(text associated deep walk)[18]、UPP-SNE[7]、GraphSage[14])的研究表明,融合结构和节点属性学习到的节点表示有助于增强许多下游应用任务的性能。TADW首先提出通过矩阵分解将节点的文本特征结合到NRL 中,显示出优于DeepWalk 的性能。还有一些半监督的NRL[19-20]方法,不仅结合节点属性,还考虑到节点标签的可用性。本文工作重点是无监督的NRL 方法,因此不使用节点标签信息。

尽管现有结合结构和节点属性的NRL方法在不同应用场景中充分展示方法的有效性,但依然面临以下两个主要挑战。

(1)异构性:网络拓扑结构和属性信息是两个异构的信息源,位于两个不同的特征空间,存在差异是不可避免的。而且两者之间并不总是表现出强烈的线性相关性。这种差异为表示学习增加额外的困难。如何选取适当的方式对拓扑结构和属性信息进行融合,使得学习到的节点表示对下游应用的性能是增强而不是恶化具有挑战性。

(2)非线性:拓扑结构和属性信息都是高度非线性的,如何捕获这种高度非线性的特性是困难的。大多数现有的方法采用浅模型,无法有效捕获高度非线性的特性。虽然使用深度学习模型能够捕获数据中的非线性结构,但输出的表示向量分布是未知和模糊的。因此,有效地捕获网络结构和属性的高度非线性结构仍具有挑战性。

针对上述问题,本文提出基于变分自编码器[21]的无监督NRL(variational auto-encoder based network representation learning,VANRL)方法,能够在网络表示学习中融入属性特征获得更好的网络表示。具体来说,使用变分自编码器进行特征提取,捕获网络数据中潜在的高非线性特征。此外,为从结构和属性信息中学习一致和互补的表示,提出一种结合这两种信息的灵活策略。

本文的主要贡献有如下三点。

(1)提出一种结构和属性的组合方法,面对不同的应用场景,可灵活调整结构和属性的结合方式。

(2)通过变分自编码器获取节点的低维表示,不仅能够捕获网络数据中的高度非线性特征,还能学习到网络数据的分布。

(3)公开数据集上的实验结果表明,VANRL方法能够得到更加稳健的节点表示。

本文组织结构如下:第2 章介绍相关工作;第3章介绍网络节点高维向量表示的获取方法和结构和属性信息的融合方法;第4章介绍变分自编码器的相关知识;第5章介绍本文方法VANRL的主要流程;第6章在多个公开数据集上从不同方面对VANRL的有效性进行验证;第7章总结全文。

2 相关工作

本章针对基于结构、基于结构和属性融合,分别介绍几种有代表性的NRL方法。

2.1 基于结构的NRL方法

基于结构的NRL方法指仅依赖拓扑结构学习节点表示。Perozzi 等提出DeepWalk[6],由此开启NRL的研究热潮。DeepWalk首先通过随机游走将网络结构编码为一组节点序列,然后使用SkipGram[22]模型基于节点上下文相似性学习结构的节点表示。Grover等提出Node2Vec[15],通过引入两个超参数平衡广度优先采样和深度优先采样生成节点序列,然后通过最大化保留节点网络邻域的可能性学习节点表示。Tang等提出LINE[16],优化大规模网络中边的联合和条件概率学习节点表示。Cao等提出GraRep[17],进一步扩展LINE,通过对节点及其k步邻居之间的关系进行建模考虑高阶相似性。Wang 等提出M-NMF(modularized nonnegative matrix factorization)[23],通过社区内相似来补充局部结构相似性,学习具有社区感知的节点表示。Cao等提出DNGR[11],首先通过Random Surfing 方法获得高维结构保持的节点表示,然后利用栈式去噪自编码器(stacked denoising auto-encoder,SDAE)[24]学习低维的节点表示。Wang等提出SDNE[12],采用深度自编码器学习高度非线性节点表示,通过重构节点邻接矩阵表示保持二阶相似性并惩罚连通节点的表示差异以保持一阶相似性。

利用拓扑结构学习节点表示,由于忽略节点属性信息,在链接稀疏的情况下,这些方法不能产生令人满意的结果。

2.2 基于结构和属性融合的NRL方法

基于结构和属性融合的NRL方法指在网络表示学习中融入节点属性信息以获得更好的网络节点表示。Yang 等提出TADW[18],第一次尝试将节点属性信息纳入NRL。TADW证明DeepWalk与矩阵分解公式之间的等价性,然后将节点文本特征编码到矩阵分解过程中,得到融入文本信息的网络节点表示。Zhang等提出HSCA[25](homophily,structure,and content augmented network representation learning)强制执行具有一阶相似性的TADW 获得更多信息的网络节点表示。Zhang等提出UPP-SNE[7],在DeepWalk框架下生成随机游走捕获节点的相似性,并通过非线性映射将用户配置文件嵌入到潜在空间学习节点表示。Tu等提出CANE(context aware network embedding)[26],通过在连通节点的属性上应用相互注意机制学习上下文节点表示。Yang 等提出MVC-DNE(multi-view correlation learning based deep network embedding)[27],应用深 度多视图学习技术将属性信息融合到节点表示中。Hamilton 等提出GraphSage[14],首先将节点内容特征作为节点表示,然后通过聚合相邻节点的表示迭代地更新节点表示。Huang 等提出AANE(accelerated attributed network embedding)[28],采用对称矩阵分解获得属性亲和性的节点表示,同时惩罚连接节点间的表示差异。Zhang等提出SINE(scalable incomplete network embedding)[29],通过使用节点表示同时预测上下文节点和节点内容属性来学习大规模不完全属性网络的节点表示。

除了上述无监督NRL方法外,还有一些关于监督NRL 的研究工作,如LANE(label informed attributed network embedding)[19]、TriDNR(tri-party deep network representation)[20]。监督NRL方法将标签信息编码到表示学习过程中。不仅很好地尊重网络结构和节点属性,而且还具有判别力,可以实现更准确的节点分类。本文专注于无监督的NRL,仅利用拓扑结构或节点属性学习节点表示。

3 问题定义及预处理

本文提出基于变分自编码器的NRL方法VANRL,主要任务是使用正逐点互信息(positive pointwise mutual information,PPMI)[30-31]矩阵作为输入,通过深度神经网络架构将网络节点表征到低维向量空间。本章首先介绍NRL的基本定义,然后介绍PPMI矩阵的计算过程。

3.1 问题定义

定义1(网络)给定一个网络G=(V,E,W),其中V是节点的集合,E⊆V×V是边的集合。节点之间的关系用邻接矩阵表示,A∈Rn×n,假设研究的对象是无权图,那么当节点vi与节点vj之间存在边时,Aij=1,否则Aij=0。矩阵W∈Rm×n存储节点属性信息,节点vi∈V对应的属性向量表示为wi∈Rm,其中m是属性维度,n=|V|是节点数。NRL 的目标是基于拓扑结构或结合节点属性,学习一个映射函数Φ(·),将网络节点映射到一个低维的潜在空间,最终获得节点Φ(vi)∈Rd在潜在空间的向量表示。

学习的节点表示Φ(vi)应具有以下特性:(1)低维,Φ(vi)的维度d应远小于原始邻接矩阵的维度n;(2)结构保持,结构相似的节点在潜在空间中会非常靠近;(3)性能保持,融合节点属性的网络节点表示应增强后续的网络应用任务性能,而不是恶化。

3.2 PPMI矩阵

PPMI矩阵是一个反映节点成对相互作用的密集矩阵。在自然语言处理中,用来衡量提取词汇的相关程度,在本文中,PPMI矩阵的行被视为节点的高维向量表示。构造方法如下:

其中,P是一个共现概率矩阵,c表示对应单词w的上下文。

针对PPMI 矩阵,沿用DNGR 中利用Random Surfing模型[11]获得共现概率矩阵P。相对随机游走方法,Random Surfing模型具有如下优势:

(1)游走的长度的限制。随机游走方法在计算共现矩阵时,会丢失范围超出长度的节点。

(2)数据集规模的限制。针对不同的数据集,随机游走方法必须正确设置两个超参数,游走长度和游走次数。

Random Surfing 模型使用一个转移矩阵M通过k步迭代计算共现矩阵P,迭代公式如下:

其中,P0是节点vi的初始独热向量。通过一个n×n的单位矩阵获得。节点每次跳转到下一个节点的概率为α,重启概率是1-α。

3.3 结构-属性联合转移矩阵

本节介绍转移矩阵M的计算过程。本文使用线性的方式将节点的结构信息和属性信息基于转移矩阵融合到一起,这种方法简单有效。

定义2(基于拓扑的节点转移矩阵)给定一个网络G的邻接矩阵A∈Rn×n,基于拓扑的节点转移矩阵MA∈Rn×n构造方法如下:

定义3(基于属性的节点转移矩阵)给定一个网络G的属性矩阵W∈Rm×n,通过求解余弦相似度将W转换成属性相似度矩阵S∈Rn×n,构造方法如下:

通过S计算基于属性的节点转移矩阵Mw∈Rn×n,对于矩阵S,为提升后期矩阵运算性能,只保留行向量中的前l个值,其余都置为0,构造方法如下:

定义4(结构-属性联合转移矩阵)给定一个网络G,结构-属性联合转移矩阵M∈Rn×n的构造方法如下:

其中,参数λ的取值范围是0~1间的实数。通过调整λ的值平衡两个异构信息源对网络节点表示的影响程度。当λ=1,表示只考虑拓扑结构,λ=0,表示只考虑节点属性。λ值越低,最终的低维节点表示受到节点属性的影响越重。

在获得网络节点的高维表示后,需要对其进行降维操作,获得网络节点的低维特征表示。通常可使用矩阵分解方法,由于浅层模型很难捕获到高度非线性的网络结构,本文使用变分自编码器对PPMI矩阵进行降维。

4 变分自编码器

VANRL 方法采用变分自编码器(variational auto encoder,VAE)[21]对PPMI矩阵X进行特征提取,得到低维的向量矩阵,VAE 结构如图1 所示。其中,编码器是参数为θ的神经网络,表示为qθ(z|x)。编码器将输入映射到潜在向量。解码器是参数为ψ的神经网络,表示为,它将向量z作为输入生成一个近似原始输入的输出。通过优化度量输入x和输出之间距离的损失函数训练自编码器。

Fig.1 Structure of variational auto-encoder图1 变分自编码器结构

VAE 和普通自编码器区别在于,编码器不直接将输入映射到潜在空间,而是输出用于采样潜在向量z的均值μz和方差σz。然后,从具有均值μz和对角协方差diag(σz)矩阵的高斯分布中生成z。最后,采样向量z被传递到解码器用于产生输出。VAE不是试图精确地逼近输出,而是定义一个近似于输入的基础连续分布的条件分布。

VAE 的损失函数通常由两部分组成:重构损失和KL-散度损失。针对矩阵中第i个向量输入的损失函数定义如下:

式(7)的第二项是一个正则化项,由KL 散度进行约束。公式推导如下:

第一项是自编码重构误差,该项不能求得解析解,通常通过蒙特卡洛抽样的方式求得近似解,本文使用X和间的平方差损失来定义,也可以用交叉熵。最后将两种损失值放在一起,通过Adam的随机梯度下降方法实现在训练中的优化参数。

潜在向量通过“重参数技巧”采样[32],z=μ+ε∙σ,使得从正态分布N(μ,σ2)采样z转换为从分布N(0,1)中采样ε,保证采样结果可导,使得整个模型可以训练。

本文构建的变分自编码器的目标函数如下:

其中,超参数β是惩罚因子,引入β使得潜在向量的每个分量代表原始输入的不同特征[33]。通过调整β减少KL-散度损失的权重。使VAE 朝着更高质量的重构方向推进,降低随机性。

5 VANRL方法

本章介绍基于变分自编码器的NRL方法VANRL,主要包括3 个步骤:计算网络-属性联合概率转移矩阵M;使用Random Surfing 模型计算共生矩阵M∗,并获得PPMI 矩阵X;构建变分自编码器对矩阵X进行特征提取,获取网络的低维特征向量表示矩阵Z。具体的方法流程见算法1。

算法1VANRL

输入:网络G的邻接矩阵A,属性矩阵W以及设置相关参数。

输出:特征向量矩阵Z。

1.基于式(3)~式(6)计算M;

2.初始化矩阵P0、M∗、P;

3.fori=1 tokdo

5.M∗=M∗+P;

6.end for

7.X=PPMI(M∗);/*生成PPMI矩阵*/

8.变分自编码器建模;

9.fori=1 tomdo

10.输入PPMI矩阵X;

11.通过式(9)训练变分自编码器;

12.end for

13.returnZ

首先,VANRL 方法的输入包括三部分:网络G的邻接矩阵A∈Rn×n,节点属性矩阵W∈Rm×n;计算PPMI 矩阵阶段所需要的参数,包括控制属性相似度矩阵非0 元素个数的参数l,调节结构和属性比重的参数λ,Random Surfing 模型中的跳转概率α,迭代次数k;变分自编码器特征提取阶段,包括潜在空间的维度d,神经网络的层数t和训练次数m。

算法1 的第1 行~第7 行,首先通过矩阵A和W联合生成转移矩阵M;接着初始化矩阵P0、M∗、P,其中P0和P都是n×n的单位矩阵,M∗是n×n的全0 矩阵,用以保存每次迭代的结果;接下来使用Random Surfing模型捕获节点间的高阶相似性,通过k次迭代后输出矩阵M∗,由于矩阵M∗的稀疏性,通过捕获节点共现信息重建一个更密集的PPMI矩阵X。

算法1 的第8 行~第12 行,构建一个变分自编码器,将矩阵X作为输入送入编码器,对X进行降维操作,循环执行m次,最终得到低维的特征矩阵Z∈Rn×d。变分自编码器不仅能够学习数据背后的高度非线性规律,还能学习到数据的分布,使得学习的潜在表示更加健壮。

6 实验结果与分析

本章使用4个真实网络数据集对VANRL方法进行性能评价。首先介绍实验环境、数据集和典型的比较方法,然后进行节点分类实验、链接预测实验和参数λ对VANRL方法影响实验。

6.1 实验准备

本文的实验环境设置为:Windows 10操作系统,Intel i7-4790 3.6 GHz CPU,8 GB 内存。本文提出的方法及实验基于Python语言和TensorFlow编码实现。

(1)数据集

使用4个真实数据集Cora、Citeseer、BlogCatalog、Flickr 进行实验。Cora 是一个引文网络,由2 708 篇出版物及其引用关系组成,出版物分为7组。每个出版物的属性用二进制向量表示,“0”表示相应单词存在,“1”表示不存在。Citeseer 也是一个引文网络,由3 312 篇论文及其引用关系组成,论文有6 个类别。每篇论文的属性用二进制向量表示,描述对应单词是否出现。BlogCatalog 网络是一个社交网络,由5 196个博主和博主间的交互关系组成,博主根据个人兴趣分为6 组。博客的关键词用于构建用户的属性特征。用二进制向量表示对应关键字的出现状态。Flickr是一个在线照片共享平台,网络包括7 575个用户和239 738个跟随者-关注者关系,这些用户加入9个预定义组。用户的功能由其图像的标签描述,根据相应标签的出现或缺失,每个用户由12 047 维二进制向量表示。对于上述网络,忽略链接的方向。详细信息见表1。

Table 1 Datasets for real networks表1 真实网络数据集

(2)比较方法

将本文提出的方法与已有的典型方法进行比较,其中DeepWalk[6]、Node2Vec[15]、GraRep[17]、DNGR[11]是基于结构的NRL方法,AANE[28]和TADW[18]是结构和属性融合的NRL方法。比较方法详细信息如下:

DeepWalk:通过随机游走和SkipGram[22]模型学习节点表示。

Node2Vec:通过有偏的随机游走和SkipGram[22]模型学习节点表示。

GraRep:通过将LINE[16]扩展到更高阶相似性并使用SVD训练模型学习节点表示。

DNGR:通过深度神经网络的学习网络节点表示的方法,与本文工作类似。

AANE:通过联合矩阵分解从网络链接和内容信息中学习节点表示。

TADW:通过矩阵分解将节点文本特征融入网络表示学习过程。

(3)参数设置

对于所有方法,为公平比较,针对节点分类和链接预测任务,所有方法的参数都是固定的。其中,最终输出的节点向量表示的维度均设置为128。针对基于随机游走的方法,DeepWalk 和Node2Vec,将游走次数、游走长度和窗口大小统一设置为10、80、10。Node2Vec的参数p和q均设置为0.5。对于GraRep,kStep设置为4。对于AANE,正则化参数λ设置为0.05,惩罚参数ρ设置为5,最大迭代次数设置为10。对于TADW,参数λ设置为0.2,最大迭代次数设置为10。DNGR 和VANRL 具有一些相同的参数,设置相同。其中,α设置为0.98,k设置为4,神经网络模型层数设为3层,通过Adam优化器训练,迭代次数设置为400,学习率为0.002。针对本文方法VANRL,参数λ设置为0.7。

Table 2 Node classification performance on Cora表2 Cora数据集上的节点分类性能

6.2 节点分类

节点分类是网络分析中的一项典型任务,用于评价NRL方法的性能。本文采用Macro-F1[37]和Micro-F1[37]评价方法的性能。Micro-F1 是所有不同类别标签上F1 值的加权平均值。Macro-F1 是所有输出类标签的F1 值的算术平均值。值越高,分类性能越好。在得到节点表示形式后,随机抽取一定比率标记的节点进行训练,其余的用于测试。将训练比率从10%变为90%,步长为20%。重复这个过程10 次,并报告Micro-F1和Macro-F1的平均性能。表2~表5显示VANRL和比较方法在4个给定数据集中的性能。

最优结果进行加粗显示,实验结果显示,针对引文网络Cora,AANE 的性能最差,利用节点属性对于提高节点分类的性能似乎没有太大帮助。针对Citeseer、BlogCatalog、Flickr,结合节点属性信息的方法显示出明显的优势。本文提出的VANRL方法在4个数据中的性能取得令人满意的表现。在Cora、Citeseer 和Flickr中的性能是最好的,在BlogCatalog中的性能也接近最优结果。节点分类任务的结果表明,在NRL的过程中,如果利用节点的属性信息,往往可以提高节点分类的性能。

Table 3 Node classification performance on Citeseer表3 Citeseer数据集上的节点分类性能

Table 4 Node classification performance on BlogCatalog表4 BlogCatalog数据集上的节点分类性能

6.3 链接预测

Fig.2 Link prediction performance on Cora图2 Cora数据集上的链接预测性能

Table 5 Node classification performance on Flickr表5 Flickr数据集上的节点分类性能

链接预测是网络分析中的另一项典型任务,目的是预测两个节点之间是否存在边。针对链接预测任务,从输入网络中移除一定比率的已有链接。移除链接中的节点对被视为正样本。随机采样相同数量的未连接的节点对作为负样本。正样本和负样本形成平衡数据集。将链接移除比率从10%变为90%,步长为10%。基于剩余网络,运行不同的NRL方法学习节点表示。曲线下面积(area under curve,AUC)[38]用于评价标签之间的一致性和样本的相似性得分。给定样本中的节点对,根据它们的表示向量计算余弦相似度得分。较高的AUC值表示更好的性能。图2~图5显示VANRL与比较方法在给定数据集中的性能。

Fig.3 Link prediction performance on Citeseer图3 Citeseer数据集上的链接预测性能

Fig.4 Link prediction performance on BlogCatalog图4 BlogCatalog数据集上的链接预测性能

结果显示,针对引文网络Cora 和Citeseer,在基于结构的NRL方法中,当链接移除比率低于50%时,GraRep 表现最佳;而当链接移除比率超过50%时,GraRep与DeepWalk、Node2Vec和DNGR相比没有显示出显著的优势。在基于结构-属性融合的NRL方法中,融合属性的NRL 比仅保留结构的NRL 方法表现要好得多。这证明节点属性可以在很大程度上有助于学习更多信息的节点表示。当训练比率为50%时,AANE 的表现优于TADW。而当链接移除比率超过50%时,TADW 的性能急剧下降。在引文网络中,VANRL 取得令人满意的表现。针对社交网络Blog-Catalog,基于结构-属性融合的NRL表现不如基于结构的NRL 方法,GraRep 与DNGR 表现突出。结果表明对于BlogCatalog 上的链接预测任务,融入属性反而会导致结果的恶化。对于VANRL,由于参数λ值为0.7,表示只融入了少量的节点属性信息,网络拓扑结构仍对最终的节点表示起到决定性的作用,针对链接预测任务,VANRL 性能较好。针对社交网络Flickr,基于结构-属性融合的NRL表现优于基于结构的NRL方法。VANRL表现不令人满意,虽然当链接移除比例增大到60%时,VANRL性能有所回升。

6.4 λ 的影响

本节测试参数λ对VANRL 方法的影响。λ的取值范围是0~1之间的任何实数,用于调整属性信息在最终的向量表示中的重要程度。λ设置为0 表示纯粹利用属性学习节点表示,值越大表示属性的重要性越低。

Fig.5 Link prediction performance on Flickr图5 Flickr数据集上的链接预测性能

针对Cora、Citeseer、BlogCatalog、Flickr 数据集,其他参数设置不变,将λ的值从0.1 调整到0.9,间隔为0.1。通过节点分类和链接预测任务观察不同的λ值对VANRL 的影响。针对链接预测,移除10%链接。针对节点分类,训练集比率是10%。评价方法与之前相同。图6显示给定环境下VANRL在节点分类和链接预测中性能。

针对Cora 和Flickr 数据集,λ的范围调整对VANRL 的影响不是特别明显。VANRL 在链接预测和节点分类任务上,随着λ取值范围的调整,VANRL性能稳定,没有出现较大幅度的波动。针对Blog-Catalog 和Flickr 数据集,λ的调整对VANRL 的性能影响较大,针对不同的任务出现两极分化。具体而言,当设置较低的λ的值,对于节点分类任务,VANRL性能有明显的提升;但是对于链接预测任务,相同的设置却导致VANRL性能恶化。

7 结束语

本文提出一种基于变分自编码器的NRL 方法VANRL。通过转移矩阵将结构信息和节点属性结合到一起,利用Random Surfing模型计算共现矩阵进而生成PPMI 矩阵,为学习到高质量节点表示,使用变分自编码器提取高维向量矩阵中的特征。针对四个真实数据集(两个社交网络和两个引文网络),通过节点分类和链接预测两个典型任务,评估VANRL和典型方法的性能。实验结果表明,VANRL 能够学习节点和属性的信息和高质量表示,并且在多数环境中明显优于最典型的方法。至于未来的工作,目标是将VANRL推广到异构网络中。

猜你喜欢
编码器向量矩阵
WV3650M/WH3650M 绝对值旋转编码器
向量的分解
设定多圈绝对值编码器当前圈数的方法
聚焦“向量与三角”创新题
转炉系统常用编码器选型及调试
舞台机械技术与设备系列谈(二)
——编码器
多项式理论在矩阵求逆中的应用
向量垂直在解析几何中的应用
向量五种“变身” 玩转圆锥曲线
矩阵