携手创作,一起成长!这是我参与「日新方案 8 月更文应战」的第31天,点击查看活动概况
前言
Hello! 十分感谢您阅览海轰的文章,假使文中有过错的地方,欢迎您指出~ 毛遂自荐 ଘ(੭ᵕ)੭ 昵称:海轰 标签:程序猿|C++选手|学生 简介:因C语言结识编程,随后转入核算机专业,取得过国家奖学金,有幸在竞赛中拿过一些国奖、省奖…已保研。 学习经历:扎实根底 + 多做笔记 + 多敲代码 + 多考虑 + 学好英语! 唯有尽力
知其然 知其所以然!
本文仅记载自己感兴趣的内容
简介
原文链接:epubs.siam.org/doi/10.1137…
会议:Proceedings of the 2018 SIAM International Conference on Data Mining (SDM CCF-B)
年度:2018
Abstract
在本文中,咱们提出了一种新的框架,称为半监督嵌入在带反常值的特点网络(SEANO),以学习一种低维向量标明,系统地捕获部分符号特点网络(PLAN)中极点的拓扑附近性、特点亲和性和标签相似性
咱们的办法被规划为在感应和感应设置下作业,一起清晰地减轻来自反常值的噪声影响。
-
在web、文本和图画范畴的各种数据集上的试验成果标明,SEANO在转导和概括设置下的半监督分类办法优于最先进的办法
-
咱们还标明,SEANO中的一个参数子集能够被解释为离群值,并且在运用于检测网络离群值时,能够显着优于基线办法
最后,咱们介绍了seanoa在具有应战性的实际环境中的运用——卫星图画的洪水制图,并标明它能够在这项使命中胜过现代遥感算法
1 Introduction
许多运用程序被建模和剖析为具有特点的网络,其间
- 极点标明具有特点的实体
- 边标明实体之间的交互或联系
在许多状况下,咱们还能够了解一个带特点网络中一些极点的标签
这样的网络称为部分符号的特点网络(PLAN)
虽然PLAN包括比普通网络更丰厚的信息,但它们也更具有剖析的应战性
鉴于网络嵌入[33,26,8]在纯网络中用于极点分类[37]和网络可视化[33]等图挖掘使命的巨大成功,研讨人员将相似的思维运用于归属网络[12,36,25,14]
但是,在PLAN中嵌入节点有三个要害应战
- 怎么经过整合PLAN中的异构信息,包括图结构、极点特点和部分可用标签,来学习网络嵌入?
- 怎么进行概括嵌入学习,以便在练习阶段为未调查到的极点生成嵌入?
- 怎么处理PLAN中的反常值,并在喧闹的环境中学习更稳健的嵌入?
一些作业会集在榜首个应战上——以转导的方式(假设一切极点在练习期间都是可拜访的)捕获拓扑结构、极点特点和标签信息,用于嵌入学习[25,12,36,14,9],虽然其间一些不能容易适应半监督学习设置[12,9]
PLAN中概括设置的处理方案,支撑为看不见的节点生成嵌入,最近才被研讨[36,9]
据咱们所知,没有曾经的作业清晰阐明晰在网络嵌入中反常值的影响
在本文中,咱们提出了一种新的办法来一起战胜这三个应战。
具体地,咱们规划了一个双输入双输出的深度神经网络来概括学习极点嵌入
- 输入层别离依赖于极点及其邻域的特点,
- 而输出层提供标签和上下文猜想
这两个不同的输出层别离构成了咱们的模型的监督和非监督组件
经过交替练习PLAN上的两个组件,咱们了解到一个一致的嵌入包括了与结构、特点和标签相关的信息
咱们还标明,咱们的办法能够生成在练习期间不行见的新极点的高质量嵌入,因而在本质上支撑概括学习
此外,咱们的模型清晰地阐明晰在练习过程中的反常点的概念,并能够有用地减轻反常极点对学习的嵌入的潜在晦气影响
咱们还提醒了所提出的模型的一个很好的特性,即特定的一组参数能够解释为PLAN中极点的反常值分数
咱们将咱们的办法称为带离群值的带特点网络的半监督嵌入(SEANO)
- 咱们经过半监督分类对SEANO发生的嵌入质量进行了实证评价,并标明SEANO在转导和概括设置方面都显着优于最先进的办法
- 此外,咱们依据SEANO的输出离群值进行离群值检测,并展现了其相关于网络离群值检测基线办法的优势
- 最后经过洪水制图的实例研讨,直观地展现了seano在洪水制图中的运用作用
2 Related Work
Network Embedding
近年来,网络嵌入战略越来越重要
前期的主意包括IsoMap[34]和部分线性嵌入(LLE)[28],它们运用向量数据的流形结构来核算低维嵌入
最近,由于天然发生的网络数据的出现,其他的网络嵌入办法也被提出[33,26,8]
除了学习同构网络的嵌入,一些研讨人员还提出了嵌入特点网络的主意[35,12,11,25,36,14,9]
虽然它们将特点和/或标签信息合并到嵌入中,但大多数是固有的转导,不能生成在练习中看不到的极点的嵌入
两个例外是用于概括学习的Planetoid[36]和GraphSAGE[9]
- 但是,Planetoid[36]是专门用于半监督分类的,作为副产品的输出网络嵌入并不捕获一切的信息(从它们的模型体系结构能够看出)。因而,它的嵌入或许不能推广到其他运用程序,如可视化和集群
- 另一方面,GraphSAGE[9]只适用于无监督学习或彻底监督学习设置,不能直接用于半监督方式
最后,现有的关于网络嵌入的研讨都没有清晰阐明反常值的影响
咱们在表1中总结了所提议的SEANO模型与这些最近的一些尽力之间的差异。
Outlier Detection
虽然在不同布景下的离群点检测已经有了很多的作业,但网络数据中的离群点检测直到近年来才被研讨
该范畴以往的办法多会集在经过图的拓扑特征来检测反常形式,如子图频率[23]、群落结构[5]等
这一范畴最近的研讨经过合并极点特点来研讨特点网络[27,20,16]
最近只有几个研讨尝试运用网络嵌入来发现网络离群值[6,10]
但是,这些尽力并不适用于有归属的网络
咱们的作业与咱们即将评论的这些作业有些不相关
3 Methodology
3.1 Problem Formulation
咱们首要界说了一个部分符号特点网络(PLAN),并制定了咱们的框架,在带有反常值的特点网络(SEANO)上完成半监督嵌入。
界说1.部分符号的特点网络
部分标号特点网络是一个无向图G=(V,E,X,Y)G=(V,E,X,Y),其间:
- V={1,2,…,n}V=\{1,2,…,n\}是极点的调集
- E是边的调集
- X=(x1,x2,…,xn)X=(x_1,x_2,…,x_n)是特点信息矩阵;
- Y=(y1,y2,…,yn)Y=(y_1,y_2,…,y_n)是V中的极点的标号,其间大部分是不知道的
依据极点的标签是否已知,咱们将极点分为有标签的极点VLV_L和未符号的极点VUV_U
咱们还考虑了网络离群点的潜在负面影响
依据其他文献[20]的界说,咱们将方案中的网络离群点界说为其特点显着偏离由图结构和极点标签部分化的上下文的底层特点散布的极点
平面中的离群值的一个例子是,一个极点的特点与具有相同标签的密集衔接组件中的其他极点的特点十分不同。
运用方案和网络离群点的概念,咱们将嵌入学习问题界说如下
界说2.具有离群点的特点网络中的半监督嵌入
给出一个带有一小部分不知道网络离群点的部分符号特点网络G=(V,E,X,Y)G=(V,E,X,Y)
咱们的方针是为每个极点i学习一个强健的低维向量标明ei∈Rre_i∈R^r,其间
- r<<nr << n
- eIe_I能够联合捕获规划中的特点信息、图结构信息和部分标签信息
3.2 The Proposed Model
咱们提出Seano来处理上述问题
Seano的体系结构(如图1所示)由一个具有两个输入层和两个输出层的深层模型组成
经过一系列的非线性映射函数将输入和输出衔接起来,将特征转化为一个非线性的潜在空间
如图1所示,两个输入层是极点xix_i的特点和其邻域x‾Ni\overline x_{N_i}的平均特点
它们经过相同的一组非线性映射函数(L1层),并经过加权和在嵌入层中集合
两个输出层铰接在嵌入层上
- 图1中左边的输出层猜想输入极点的类标签yiy_i
- 而右侧的输出层生成网络输入的上下文
3.2.1 Architecture and Rationale
咱们将深模型的第k层标明为HK(Xi)=(wkhk−1(Xi)+bk),其间wk和bk是第k层中的权重和偏差,()是非线性激活函数。则能够将嵌入层标明为
其间,i∈[0,1]是与每个极点i相关联的参数(称为集合权重),并且经过模型练习3来学习。咱们现在阐明怎么运用拟议的模型来处理以下三个应战。
半监督嵌入学习:左输出层作为模型的监督学习部分,由于它猜想类别标签,而咱们运用标签数据来练习它。右侧输出层猜想网络输入的上下文,该上下文来自上下文生成算法,例如随机游走26。因而,该部分被以为是模型中捕捉拓扑结构信息的非监督部分。这两个部分紧密地相互衔接,由于它们同享从输入层到嵌入层的榜首个L1+1层。此外,特点信息天然被集成到嵌入中,由于它是模型的输入。作为一个整体,Seano经过运用符号数据和未符号数据以半监督学习的方式进行练习,而嵌入层作为输入层和输出层之间的桥梁,必然会交融方案中的一切异质信息。
批改嵌入学习中的离群点:请留意,Seano的输入层包括来自方针节点及其邻域的特点信息。这两个输入源在嵌入层经过依据聚合权重i的加权和来交融,如公式3.1所示。经过将邻域合并到输入中,SEANO不仅收集用于嵌入学习的额定信息,更重要的是,还平滑了每个独自极点i发生的噪声。直观地说,假如一个极点与相似上下文中的其他极点比较包括反常特点,Seano将天然生成更依赖于邻域特点,以便提供更好的猜想成果。
从而引导模型经过练习学习到更小的权值i。因而,咱们能够经过引进邻域信息和自适应学习聚合权值来缓解网络反常值的负面影响。事实上,正如咱们将在第3.2.4节中展现的,学习到的权重i能够很好地解释为每个极点i的反常值得分,并进一步用于反常值检测。
概括嵌入学习:咱们指出seano能够很容易地经过调查一个新极点的特点和邻域来揣度它的嵌入。这种推广是或许的,由于极点i的嵌入ei是用ei = ihl1 (xi)+(1−i)hl1 (xNi)核算的,它只依赖于xi、xNi和i。当新极点i抵达时,xi和xNi能够很容易地得到。关于i,咱们能够将其设为一个常数,这取决于新极点的正规性的先验知识。在本文中,咱们对未调查极点取一个保守的估量并设置i = 0.5,咱们经历地发现这是可行的。这样,咱们的模型就能够运用于经过交融异构信息来概括揣度不行见节点的嵌入。
3.2.2 Loss Functions
依据上述界说,softmax层la- bel猜想的输入值可标明为hl2 (ihl1 (xi) +(1−i)hl1 (xNi)),为简便起见,记为hl2⊕l1 (xi, xNi)。同理,softmax层用于上下文猜想的输入为hl3⊕l1 (xi, xNi) = hl3 (ihl1 (xi) +(1−i)hl1 (xNi))
图1左边所示的深度模型的监督学习组件是标准的多层感知器(MLP)。其丢失函数为:
其间p(yi|xi, xNi)是方针标签的或许性,被正式界说为
这儿,Y标明或许的标签调集。如图1所示,W(s)是模型监督学习部分中运用的softmax层的权值矩阵
seanoi的无监督学习组件相似于Word2Vec[22]和DeepWalk[26]中运用的办法。咱们选用Skip-gram模型[22]来捕捉方针极点(输入时)和上下文极点(输出时)之间的联系。关于特点xi的PLAN中的每个节点i,咱们生成它的上下文Ci = {vi,1, vi,2,…第六,c}。然后结构丢失函数为:
其间p(v ‘ |xi, xNi)是给定极点及其邻域特点的方针上下文的或许性:
这儿W(u)是模型中无监督部分运用的softmax层的权值矩阵。留意,这个公式不同于DeepWalk[26]中的公式,由于猜想或许性p(v ‘ |xi, xNi)取决于特点xi和xNi,而不是极点id。
咱们现在评论怎么为每个极点i生成上下文Ci。咱们将一个极点的上下文分类为网络上下文和标签上下文,扩展了[36]中提出的思维。一个极点的网络上下文由网络中挨近该极点的极点组成,能够经过在网络[26]中截断随机游走生成。极点i的标签上下文界说为具有相同标签的极点,能够经过对标签为yi的极点进行均匀抽样来生成这些极点。
关于每个极点i,咱们依照算法1所示的步骤生成一共c个上下文极点。具体来说,关于一个有标签的极点,咱们从短随机游动流中生成c * 3 标签上下文极点(行2-3)和c *(1−)网络上下文极点(行4)。关于一个没有标签的极点,咱们提取c网络上下文极点(行6)。为了生成网络上下文,咱们基本上遵从与Deepwalk[26]相同的办法。
3.2.3 Model Training
在这一部分,咱们评论了怎么一起最小化监督丢失Ls和非监督丢失Lu。咱们首要描绘模型中每个部分(有监督和无监督)的优化过程。如前所述,图1左边的监督单元是标准MLP。咱们能够很容易地运用反向传播和梯度下降来练习模型[29]。
关于公式3.4中描绘的具有丢失函数的无监督重量,由于需要用公式3.5遍历V中的一切极点来核算∇(log p(V’|xi, xNi),在大数据集上的功率十分低,因而练习成本或许会相当高。为了处理这一问题,咱们选用负采样战略[22]。咱们不直接运用公式3.5并查看一切的极点,而是用Word2Vec[22]中提出的负采样方针来替换它。将其运用于3.4式,得到丢失函数for
式中,为Sigmoid函数,Vv ‘,neg为负集,随机选取t个负样本。
为了一起削减模型中的监督丢失和非监督丢失,咱们运用了迷你批量随机梯度下降法,并交替更新模型中两个部分的参数。如算法2所示,咱们联合练习这两个部分,在监督部分(4-5行)和无监督部分(7-16行)的批大小别离为b1和B2。需要留意的是,这两个重量之间是紧密衔接的,由于它们同享神经网络中的榜首l1 + 1层(见图1)。因而,监督重量和非监督重量都会更新同享层中的参数。此外,为了将i限制在[0,1]范围内,咱们设置i = (i),并对i进行优化。练习模型后,每个节点的嵌入由嵌入层的激活值组成,核算公式为3.1。
3.2.4 Outlier Detection Using SEANO
如图1所示,SEANO从极点特点xi及其邻域特点xNi获取输入。这两者在经过一系列隐藏层后交融到嵌入层。两个信息源的交融依赖于聚合权值i,聚合权值是经过模型练习阶段学习到的。在极点反常的状况下(其特点与同一上下文中的其他极点十分不同),SEANO将学会削减来自极点特点xi的输入,并更多地依赖于邻域特点xNi来履行猜想,这是由潜在的丢失函数的削减所驱动的。该规划能够消除单个极点的噪声,自适应进步嵌入的鲁棒性。更重要的是,咱们指出权值参数i能够解释为PLAN中每个极点i的反常值得分。练习咱们的模型后,PLAN中的每个极点i都有一个权值参数i,它总是在[0,1]范围内。i较低的值标明,与大多数极点比较,极点i的特点在猜想类标签和图上下文方面没有信息。
这是一个激烈的信号,标明它的特点、标签和图结构不符合PLAN中的底层形式。依据这一思维,咱们将理解为极点i的反常值。反常值越低,该极点越有或许是反常值
4 Experiments and Analyses
Datasets
Baseline Methods
4.1 Transductive Learning
在本试验中,咱们以转导的方式(测试练习中可拜访的数据)在PLAN中进行网络嵌入,并在节点分类使命上评价不同的嵌入办法。咱们在前四个数据集以及它们的噪声版别进步行了这个试验。表4报告了一切比较办法在这些数据集上的分类精度。咱们着重以下首要意见:
1)极点特点、图结构、标签信息都有助于进步嵌入质量。跟着咱们加入更多的信息用于嵌入学习(表4中从上到下),咱们倾向于取得更好的嵌入,这从分类功能的进步能够看出。假如咱们将前两组的办法与后两组的办法进行比较,咱们能够清楚地调查到显着的功能间隔。留意前两组和后两组之间的首要区别是,前者只运用一种或两种类型的信息进行嵌入学习,而后者运用了一切三种类型的信息(极点特点、图结构和部分可用标签)。这种调查成果在Cora数据会集更为显着,其间SEANO、GCN Node2Vec+ Node2Vec、SVM。
2)为了完成高质量嵌入,需要对异构信息进行系统交融。简单的战略,比如用特点衔接网络嵌入,并不总是有用。这能够经过比较Node2Vec+与简单SVM的功能来调查。Node2Vec+与SVM的不同之处在于,它经过衔接极点嵌入来扩展原始极点特点。但是,咱们调查到Node2Vec+在Citeseer、Pubmed和Houston数据集上的体现不如SVM。Node2Vec+相关于Planetoid-T、GCN等更高档的办法功能较差,阐明网络结构只有在有原则的纳入时才有助于进步嵌入质量。这证实了联合学习PLAN嵌入的必要性。
- SEANO生成质量最好的嵌入,并一直优于其他办法的极点分类。特别是,它一直优于最先进的办法,包括Planetoid-T, CNN-Cheby和GCN。咱们以为,功能提升的一个首要原因是,eseano能够纠正嵌入学习阶段网络反常值的晦气影响。一个依据是SEANO的功能比它的变体SEANO-0.5和SEANO-1.0更好,这两个变体运用彻底相同的神经网络架构,仅仅固定了聚合权值i。这标明,依据极点离群性的自适应集合权(SEANO)比疏忽邻域特点(SEANO-1.0)或均匀合并极点特点和邻域特点输入信号(SEANO-0.5)的办法具有显着的优势。咱们还应该着重,seanoo在运用于有噪声的数据集时,功能下降最小,尤其是与竞争性技能人员(GCN, seanoo -0.5, seanoo -1.0)比较。
4.2 Inductive Embedding Learning
正如咱们在第3.2节中评论的,SEANO也被规划来支撑概括嵌入学习。在这个试验中,咱们标明SEANO能够揣度出在模型练习期间未调查到的极点的质量嵌入。概括学习一般更具应战性,之前的一些基线不能运用于此设置。为了进行比较,咱们选用了Planetoid (Planetoid- i)[36]的概括变体和最先进的办法GraphSAGE[9]。为了方便参阅,咱们仍然运用SVM作为基线,但与之前的试验彻底相同。为了概括学习的目的,具有1000个极点的测试数据集在练习阶段被保留并且不能被拜访。其他的试验设置与转导式学习试验相似。表5显现了SEANO与其他办法比较在概括学习中的体现。
如表5所示,SEANO的功能显着优于其他办法。最大的间隔在于Cora和Citeseer数据集,在那里咱们别离调查到比第二最佳基线的精确性进步了19%和8%。经过比较表5和表4中seano的功能,咱们能够看到seano在概括学习上的体现简直相同,仅仅精度略有下降。这个试验的成果标明,即便没有调查到测试数据集,SEANO仍然能够相当好地学习嵌入,显着优于最先进的技能。
4.3 Outlier Detection using SEANO
除了学习强健的嵌入方案,这儿咱们标明seano也有才能经过解释集合权i作为反常值得分检测网络反常值。
咱们将SEANO符号注入的网络反常点[31]的功能与以下基线进行比较:1)仅特点办法(attro .-only),它在极点特点上运转阻隔森林[19]来检测反常点。2) Planetoid-T、GCN和SEANO-embed,别离对Planetoid-T、GCN和SEANO-embed生成的网络嵌入选用阻隔森林算法。请留意,这些办法生成最佳质量的嵌入,如转导学习试验所示。4) AMEN[27]和ALAD[20]是最先进的特点网络离群点检测算法。咱们在上述运用的噪声数据集上运转一切办法,其间5%的反常值是运用天然扰动方案[31]注入的。咱们将待检测的反常点数量设为注入的反常点数量,并核算精度。表6展现了不同办法对反常点检测的功能。
咱们清楚地看到,SEANO在这个具有应战性的使命中体现得相当好,其功能可与专门为检测具有特点的网络反常值而规划的最先进的办法相媲美。经过运用模型中的集合权重,SEANO在Cora∗和Pubmed∗上的功能显着优于最佳基线ALAD(用于特点网络反常值检测),而在Citeseer∗上的功能略差。考虑到SEANO一开始就不是为网络反常点检测而规划的,这是一个令人印象深入的功能。SEANO还主导了其他依据嵌入的稻草人(GCN, Planetoid-T,SEANO-embed),其间许多在这个使命上体现很差。咱们猜想,这是由于嵌入将一切信息整合到一个连接的向量标明中,无法将特点信息(作为离群指标特征)与标签信息和图信息(上下文特征)区别开来[20,18]。
4.4 Case Study: Flood Mapping
实际国际的问题(洪水制图)。为此,咱们运用了2016年休斯顿洪水发生后,运用合成孔径雷达立即收集的休斯顿高分辨率卫星图画。有两个来自雷达的原始特点(HH和HV)和另一个代表每个像素的地舆海拔。咱们查看了SEANO在一个具有应战性的图画上的可扩展性和有用性。HH和HV丈量被物质反射的波的极性,有助于区别水和陆地。方针是进行半监督学习来区别水和土地。咱们依照Cour等人[3]提出的办法将图画转换为无向图。图画的每个像素被视为一个极点,并且在1.5个单位的欧几里得间隔内与附近像素有边。每个极点的三个特点(HH, HV, elevation)被用作极点特点。由此发生的PLAN,被称为休斯敦-大,包括3,926,150个极点和15,692,353条边(在之前的试验中运用了一个被称为休斯敦的低分辨率版别)。地面真实标签(水或土地)由范畴专家提供,咱们从中抽取100个实例作为符号数据进行练习。
咱们在休斯敦上运转了不同的办法——在相似于转导学习试验的设置下(成果见表7)。这儿咱们包括了来自遥感和核算机视觉社区的专门用于洪水制图和图画切割的基线,以及咱们之前剖析的前三种算法(SEANO、Planetoid-T和SVM)。Hugfm是一种最先进的卫星图画半监督划定水域的算法(由范畴专家监督)[17]。Norm-thr[21]是在遥感范畴发展起来的一种依据分裂的现代水体圈定自动阈值办法。Otsu[24]是一种依据聚类的阈值切割办法,广泛运用于核算机视觉和遥感范畴。分水岭[2]算法是一种依据符号物的区域成长技能。从表7能够清楚地看出,SEANO在区分洪水泛滥区域方面的体现显着优于基线。相同值得留意的是,许多具有竞争力的基线(如SVM、Planetoid)在低分辨率的休斯顿数据上作业得相当好,但在这种状况下却不那么有用(与表4比较)。最后,咱们留意到,在大型城市环境中,即便在统计上有细小(1%)显着进步F1分数,也能够节省很多资金(数十亿美元),并改善灾后紧迫救援作业的优先级[21,17]。
在图2中,咱们还将原始数据和SEANO输出的成果可视化。对比图2b的水体划界成果和图2a的原始卫星图画,咱们能够调查到SEANO精确地划界了不同形状的水域(如细长的河流)。此外,依据SEANO输出的反常点评分,图2a中的白色圆圈是反常点最多的点。视觉上,与周围的像素比较,大多数反常值都十分亮堂和耀眼。为了找出实际中那些反常值是什么,咱们将它们与谷歌Maps进行交叉引证。图2c显现了谷歌Maps中与4个代表性反常值相关的区域。图2c的榜首行显现了水体中的集装箱和船舶(对应于图2a中的A和B),而第二行显现了工厂中常见的大型白色圆柱形水箱(一般装有处理过的水)(图2a中的C和D)。咱们研讨了前80个反常值,发现它们中的大多数都属于这些状况。一个一起的因素是它们包括强反射的金属表面,导致它们与相邻像素比较具有更高的HH和HV值。总而言之,这个事例研讨标明,SEANO关于存在反常效应的实际问题是高效的(能够扩展到大问题)和有用的(与最先进的比较)。
5 Conclusions
咱们提出了一个半监督概括学习框架来学习鲁棒嵌入,一起保持图挨近性,特点亲和力和标签信息,一起考虑反常值效应( outlier effects )
咱们将所提出的模型扩展用于检测网络反常点
咱们对真实国际数据的试验和洪水制图的事例研讨证明晰咱们的办法在当时技能水平上的有用性
作为未来的作业,咱们方案将SEANOto运用于其他类型的网络,如特点超网络和异构信息网络
读后总结
2022/08/11 榜首次阅览
本文为略读,只读了个大概
文章是针对带有部分标签的特点网络的嵌入
整个结构如下
含有两个输入和输出
- 一个输入是节点ii的特点信息xix_i,另一个输入则是节点ii邻域节点特点信息的均值
- 经过权值操控二者的比例经过神经网络进行嵌入,得到eie_i
- 然后再运用嵌入eie_i得到猜想此节点的标签以及其上下文
- 构建丢失函数,以此为方针优化,得到最终的稳定嵌入
感觉仍是有点启发的,思路仍是能够的,假如觉得有启发,之后再研读一遍!
结语
文章仅作为个人学习笔记记载,记载从0到1的一个过程
期望对您有一点点帮助,如有过错欢迎小伙伴指正