Java学习_JDK介绍及下载安装+配置JDK环境

DAY2-代码优化、验证信息封装和图片上传

  返回  

论文阅读|Info2vec: An aggregative representation method in multi-layer and heterogeneous networks

2021/8/21 23:29:42 浏览:

论文阅读|Info2vec: An aggregative representation method in multi-layer and heterogeneous networks

文章目录

    • 论文阅读|Info2vec: An aggregative representation method in multi-layer and heterogeneous networks
      • Abstract
      • Introduction
      • Graph Transformation
      • Info2vec: aggregation of information
        • Measuring similarity
        • Nodes sequences
        • Language model
        • Info2vec
      • 实验设置
      • 参考资料

Abstract

将多层网络中的节点映射到低维向量在社区检测、节点分类和链路预测等方面有广泛应用。首先将异构网络通过图变换得到聚合网络,根据不同层的网络结构生成潜在的信息链接。然后通过聚合节点的结构、接近度和属性等信息,对聚合网络中不同节点之间的相似度进行综合度量。 基于节点具有的综合相似度值,可以使用边缘渗透方法生成上下文图,它为一些重要的下游工作(如分类、聚类和预测等)提供了基础。


Introduction

同一层中的节点,由于其属性不同,可能存在不同的类别。从skip-gram模型发展来的方法有,学习节点的广义表示,然后根据获得的表示向量执行一些下游任务(如分类、聚类、检测等)。

网络中的表征学习侧重于将原始图数据转换为低维向量,同时从结构、接近度和属性等角度保留图的内在属性。这种低维向量允许通过计算来广义理解两个节点之间的相似性,如表示向量之间的欧几里得距离或余弦相似度,以及促进进一步的下游分析。表示向量可以通过使用不同的方法获得,包括降维、矩阵分解和神经网络等。节点嵌入基于随机游走的算法已被广泛使用。

现有表示学习可分为以下三个分支

  • 侧重于接近度的相似性,如deepwalk(该方法在处理稀疏数据、缺失信息和并行计算的情况下具有优势,应用于网络分类和网络检测,但无法使远离根节点但功能相似的节点建立联系)。Node2vec(深度游走的通用版本,能够学习来自同一社区的节点以及共享相似角色的节点的表示)
  • 同时考虑近邻相似性和结构相似性。如struc2vec(计算层次结构中任意两个节点之间的相似度,然后构造一个加权的多层图来生成节点序列,最后使用skip-gram模型来学习潜在表示。该方法需要大量的计算资源,并且无法捕捉到近邻之间的相似性)
  • 归纳学习强调邻居以及高阶邻居的聚合节点的属性。如GraphSAGE(利用节点特征并将它们合并到学习过程中来训练一组聚合器函数,基于这些函数可以生成看不见的节点的嵌入。 通过将邻域信息与节点特征相结合,该方法在预测节点分类或动态图中的角色方面优于传统基线)

Info2vec从结构、接近度和属性的不同角度聚合信息,以实现更准确的预测。其贡献有:

  • 通过聚合来自不同层的信息将多层异构网络转换为单层网络的方法,使得焦点层上的节点可以与来自支持层的信息很好地连接。
  • 通过考虑领域相似性、结构相似性和属性相似性来引入广义表示学习框架,以通过向量表示节点。所提出的框架优于一些传统的基线方法

Graph Transformation

多层异构图表示为 G L = ( L , E ) G^L=(L,E) GL=(L,E),其中 L = { G 1 , G 2 , . . . , G m } L=\{G_1,G_2,...,G_m\} L={G1,G2,...,Gm}表示层集。在单层 G k = ( V k , E k , A k ) G_k=(V_k,E_k,A_k) Gk=(Vk,Ek,Ak)中,包含节点集 V k = { v 1 k , v 2 k , . . . , v n k } V_k=\{ v_1^k,v_2^k,...,v_n^k \} Vk={v1k,v2k,...,vnk},边集 E k = { e i j k } E_k= \{ e_{ij}^k \} Ek={eijk},节点 v i k v_i^k vik和节点 v j k v_j^k vjk通过边 e i j k e_{ij}^k eijk连接。

ϕ k : v i k ∈ V k → θ i k ∈ A k \phi _k : v_i^k ∈ V_k → \theta _i^k ∈ A_k ϕk:vikVkθikAk表示 G k G_k Gk层的节点 v i k v_i^k vik具有属性 θ i k \theta _i^k θik,其中 θ i k = [ θ i , 1 k , . . . , θ i , t k ] \theta_i^k = [\theta_{i,1}^k,...,\theta_{i,t}^k] θik=[θi,1k,...,θi,tk]

E = { E 12 , E 13 , . . . , E k f , . . . } E=\{E_{12},E_{13},...,E_{kf},...\} E={E12,E13,...,Ekf,...}表示两层之间的连接。例如 E k l E_{kl} Ekl表示层 G l G_l Gl和层 G k G_k Gk之间的连接,节点 v i k v_i^k vik和节点 v j l v_j^l vjl间的连接边表示为 e i j k l e_{ij}^{kl} eijkl

下图是论文中展现的多层异构图:

在这里插入图片描述

在多层异构网络中,了解支持层中结构或连接的基本信息有助于更好地理解焦点层上的活动。为准确捕获焦点层中节点的身份,需要采取措施聚合来自支持层的信息。实施图转化,将焦点层扩展为聚合网络,将焦点层的信息与支持层的信息相结合。聚合网络应包含焦点层中的所有现有边,以及一些新添加的链接。

考虑到不同网络层链路之间的相互依赖性,焦点层中的两个节点在支持层中具有共同邻居或连接到支持层中的某个边的情况下,在焦点层上更可能有密切的交互。具体来说,对于在焦点层原本没有连接的两个节点,对于以下两种不同的情况,它们之间需要在汇聚网络中建立一条新的链路:

  • 三角形连接
  • 四边形连接

由论文中图可见:

在这里插入图片描述

在聚合网络中,节点之间的边比焦点层中的边更密集,聚合的信息更多。图转换后的结果如下所示:

在这里插入图片描述


Info2vec: aggregation of information

Measuring similarity

论文采用的三种相似性度量

  • Nearness similarity(邻近相似性)
    S n ( u , v ) = e α ( − l ( u , v ) + 1 ) S_n(u,v)=e^{\alpha(-l(u,v)+1)} Sn(u,v)=eα(l(u,v)+1)
    取值范围为[0,1], α \alpha α是为了减少因节点u和节点v间最短路径 l ( u , v ) l(u,v) l(u,v)所带来的衰减。

  • Structural similarity(结构相似性)

    采用动态时间扭曲(DWT)来测量两个节点之间的结构距离。
    f k ( u , v ) = f k − 1 ( u , v ) + g ( s ( R k ( u ) ) , s ( R k ( v ) ) ) f_k(u,v)=f_{k-1}(u,v)+g(s(R_k(u)),s(R_k(v))) fk(u,v)=fk1(u,v)g(s(Rk(u)),s(Rk(v)))
    其中 g ( s ( R k ( u ) ) , s ( R k ( v ) ) ) g(s(R_k(u)),s(R_k(v))) g(s(Rk(u)),s(Rk(v)))表示s的第k跳邻居和v的第k跳邻居间有序数序列的距离。且 g ( D 1 , D 2 ) = ∑ d i ∈ D 1 , d j ∈ D 2 △ ( d i , d j ) = ∑ d i ∈ D 1 , d j ∈ D 2 ∣ d i − d j ∣ g(D_1,D_2)=\sum_{d_i∈D_1,d_j∈D_2}△(d_i,d_j)=\sum_{d_i∈D_1,d_j∈D_2}|d_i-d_j| g(D1,D2)=diD1,djD2(di,dj)=diD1,djD2didj,其中 D 1 和 D 2 D_1和D_2 D1D2是两个节点度数序列, d i 和 d j 分 别 表 示 D 1 和 D 2 d_i和d_j分别表示D_1和D_2 didjD1D2中的度值。计算两个节点间的结构相似性公式为:
    S s ( u , v ) = e − β f k ( u , v ) S_s(u,v)=e^{-\beta f_k(u,v)} Ss(u,v)=eβfk(u,v)
    其中 β \beta β是衰减系数。

  • Attribute similarity(属性相似性)

    对于节点u和v的属性集 θ u = [ θ u , 1 , . . . , θ u , t ] \theta_u = [\theta_{u,1},...,\theta_{u,t}] θu=[θu,1,...,θu,t] θ v = [ θ v , 1 , . . . , θ v , t ] \theta_v=[\theta_{v,1},...,\theta_{v,t}] θv=[θv,1,...,θv,t],相似值可以表示为如下的t维向量
    h ( u , v ) = [ δ 1 ( u , v ) , δ 2 ( u , v ) , . . . , δ t ( u , v ) ] h(u,v)=[\delta_1(u,v),\delta_2(u,v),...,\delta_t(u,v)] h(u,v)=[δ1(u,v),δ2(u,v),...,δt(u,v)]
    其中
    δ i ( u , v ) = { 1 , i f θ u , i = θ v , i 0 , i f θ u , i ≠    θ v , i \delta_i(u,v)=\begin{cases} 1, \quad if \quad \theta_{u,i}=\theta_{v,i} \\ 0, \quad if \quad \theta_{u,i} \neq\; \theta_{v,i} \end{cases} δi(u,v)={1,ifθu,i=θv,i0,ifθu,i=θv,i

    结构相似性可表示如下:
    S a u , v = h ( u , v ) W a T S_a{u,v}=h(u,v)W_a^T Sau,v=h(u,v)WaT
    其中W代表属性间联系权重。

综合上述三种情况,节点u和节点v间的综合相似性可表示为
S ( u , v ) = W n S n ( u , v ) + W s S S ( u , v ) + W a S a ( u , v ) S(u,v)=W_nS_n(u,v)+W_sS_S(u,v)+W_aS_a(u,v) S(u,v)=WnSn(u,v)WsSS(u,v)+WaSa(u,v)

Nodes sequences

如何得到节点序列?

根据原始的异构网络计算出节点间的综合相似性S,然后构造完全图,将节点间的综合相似性S设置为对应边的权重W,然后采用边渗透,删除权重小于 δ \delta δ的边就得到了上下文图。然后在此图上进行随机游走得到相应节点序列,通常设置路径长度 λ \lambda λ在10左右。此处采用偏随机游走(biased random-walk),Node2vec中可见。

在这里插入图片描述

Language model

skip-gram语言模型

与deepwalk介绍类似

Info2vec

在这里插入图片描述


实验设置

数据集:网络空间网络

参数设置: W n = 2 , W s = 1 , α = 0.5 , β = 1 , W α = [ 1 , 0.1 , 0.1 , 0.1 , 0.5 ] , δ = 2 , d = 256 W_n=2,W_s=1,\alpha=0.5,\beta=1,W_{\alpha}=[1,0.1,0.1,0.1,0.5],\delta=2,d=256 Wn=2,Ws=1,α=0.5,β=1,Wα=[1,0.1,0.1,0.1,0.5],δ=2,d=256

评价指标:JC,FMI,RI,F1

对比算法:DeepWalk,Node2vec,Struc2vec,GraphSAGE


参考资料

Info2vec: An aggregative representation method in multi-layer and heterogeneous networks

联系我们

如果您对我们的服务有兴趣,请及时和我们联系!

服务热线:18288888888
座机:18288888888
传真:
邮箱:888888@qq.com
地址:郑州市文化路红专路93号