第三章、节点嵌入 Node Embedding
图表示学习(Graph Representation Learning)图表示学习减轻了每次进行特征工程的需要。传统机器学习对于输入的图信号会进行一系列的特征提取工作,如第二章所示。而图表示学习则是淡化了特征提取工作。图表示学习的目标:对图机器学习希望得到一个高效,且任务独立的特征学习方法。Embedding作用:将节点映射到一个embedding空间中。下面是embedding的性质和作用:网络
课程为斯坦福大学CS224W 2021年冬季课程。
斯坦福大学CS224W silide 03-nodeemb
图表示学习(Graph Representation Learning)
图表示学习减轻了每次进行特征工程的需要。传统机器学习对于输入的图信号会进行一系列的特征提取工作,如第二章所示。而图表示学习则是淡化了特征提取工作。
图表示学习的目标:对图机器学习希望得到一个高效,且任务独立的特征学习方法。
Embedding
作用:将节点映射到一个embedding空间中。
下面是embedding的性质和作用:
- 网络中相似的节点,在Embedding空间中也是相似的。
- 潜在地被用来作为下游的预测
- 编码网络信息
下图为网络embedding的实例。网络中节点在embedding之后被映射到2维空间上,其中网络中性质相似的节点,在2D空间中坐标临近。
节点嵌入:编码和解码
给定一个图, 是顶点集,是图邻接矩阵,为了简化问题,不考虑节点特征和其他的额外信息。
节点嵌入:
如下图所示
上图的目的是为了让embedding空间中的相似性近似图中的相似性,其中embedding空间一般是D维空间,相似性可以用向量和的内积来衡量。如下图所示,节点在图中国的相似性等于节点embedding之后的相似性,不过节点在图中的相似性需要定义。
Node Embedding涉及到的过程:
- 编码(Encoder):将节点映射到embedding空间
- 在映射的过程中需要定义原始图中的节点相似性,以保证映射后的节点相似性有个优化目标。
- 解码(Decoder):将embedding空间中的节点集映射为相似性得分。
- 优化编码参数以解码得分满足下式,其中解码得分使用内积的形式。
两个重要的部分:
Encoder:将每一个节点都映射为一个低维的向量。
相似性函数或解码:刻画向量空间的关系如何映射到网络空间中。
浅编码(Shallow Embedding)
最简单的编码方式:仅仅是一个嵌入查找,即一个编码集中找一个作为节点的编码。
其中是一个矩阵,每一列是一个节点编码。是一个指示向量,指示节点处为1,其他为零,这个指标集的维数为,即节点个数。
最简编码处理方式:每个节点被分配一个唯一的Embedding vector,我们可以直接优化每个节点的嵌入向量。大致做法为先优化整个embedding矩阵,然后使用指示向量获得所需节点的Embedding。下图为浅编码的框架总结:
如何定义节点相似性
定义节点相似性的可能猜想,如果节点是相似的那么
- 两个节点是连接的?
- 有共享邻居节点?
- 有相似的结构表示?
后面将会用随机游走算法(random walks)来定义图节点的相似性,然后优化编码方式以近似图节点的相似结果。
节点嵌入的注意事项:
- 学习节点嵌入是一个无监督/自监督的方法
- 不使用节点标签
- 不使用节点特征
- 节点嵌入的目的是直接估计节点的坐标以保证图结构的一些方面被保留
- 这些嵌入是任务独立的
- 他们并不是针对一个特定的任务来训练,所以能够在其他任务中使用。
符号说明:
向量:节点的embedding,这是我们要找的。
概率:表示从节点出发以随机游走的方式访问到节点的概率.
下面两个分线性函数被用来生成预测概率:
Softmax函数:将K个实值组成的向量变成一个和为1的由K个概率组成的概率向量:
Sigmoid函数:是一个S形状的函数,能够将实值映射成(0,1)区间的值,此函数写作:
随机游走:给定一个图和一个开始节点,我们随机挑选这个节点的邻居节点,然后移到这个邻居节点,以这个邻居节点作为开始点重复这个过程。到达一定次数之后这个过程结束。在整个过程中访问的节点序列就是图上的随机游走。如下图所示:
随机游走嵌入:表示和同时出现在图的随机游走过程的概率。
随机游走Embedding的执行步骤:
- 用随机游动策略估计从节点开始的随机游走中访问节点的概率。
2.优化这些embedding来编码随机游走统计参数。用embedding 空间中的相似性(这个相似性需要专门的二元函数来计算,如简单的内积)来编码节点经过随机游走算法得出来的”相似性“.
随机游走算法的好处:
- 表达性强。灵活且随机的节点相似性定义能够整合节点局部和全局的邻居信息。
- 一个朴素的认知:如果从节点开始的随机游走过程以高概率访问到节点,那么节点 和节点有“很强的关系“,他们是相似的。
- 高效。在训练过程中不需要考虑所有的节点对,仅仅需要考虑在随机游走过程中出现的节点对。
无监督特征学习:
- 目的。在d维空间中,找到能够保存图节点相似性的节点嵌入。
- 思路。在embedding空间中临近的节点在网络中连接的紧密。
- 给定一个节点,如何定义节点中连接紧密的节点?
- 表示以随机游走策略取得的节点的邻居。
Feature Learning as Optimization
- 给定一个图
- 目标。学习一个映射 .
- Log-likelihood 目标:
4.给定节点,我们想要在随机游走过程中取得的邻居节点集中学习节点预测特征表示。
随机游走优化过程:
大致思路:
- 用随机游走策略以节点 作为起始点执行一个短的且固定长度的随机游走过程。
- 表示的随意游走访问的节点集; 是一个多重集(multiset),即存在重复值。这符合随机游走过程的,因此很可能对某一个节点访问多次。
- 优化embedding是通过对给定的节点预测他的随机游走邻居来实现
. (1)
等价于:
. (2)
这里(1)变成(2)仅仅是将集合 写成单个元素点的形式。
Intuition: 优化嵌入 来最大化似然co-occurrences随机游走。
使用softmax函数来参数化
为什么使用softmax:我们希望节点是所有N个节点中与节点最相近的,而,即与节点最相近的占主导。
最优化随机游走嵌入等于找到使最小的,即是的在图中与节点最相似的节点在embedding空间中内积最大使得.但是这个双重求和的时间复杂度为 .
下面借用负采样[1]来降低复杂度问题,具体推导过程"负采样推导过程"。
有两个关于负样本的个数k的考量
- 更高的k表示着更好的鲁棒性
- 更高的k表示着越偏向于负样本,即得出的参数偏向于保证图结构中不相似的点,在embedding空间中不临近,但是不一定保证相似的点更加靠近。在实际中一般将k取为5-20.
在取得目标函数之后采用梯度或随机梯度下降法来解优化函数。梯度下降是使用所有样本来计算梯度,计算时间长,计算量大。随机梯度下降是使用一个样本来计算梯度,时间消耗短,但是梯度计算的随机性大;一般采样mini-batch梯度下降,即梯度和随机梯度的一个折中,主要思想是从样本中抽样一定数量样本进行梯度计算。此外梯度下降使用反向传播算法来更新参数值。
随机游走算法的总结:
- 对图中每一个节点都执行一次short fix-length 随机游走。
- 经过随机游走计算每个节点的随机游走邻居多重集合, 存放的是从节点 开始经过随机游走算法得到的重复样点集。
- 用随机梯度下降法优化embedding(使用负样本来简化计算)
如何执行随机游走
到目前为止,我们讨论了对于给定的随机游走策略,如何优化所需的embedding.但是并没有说明如何执行随机游走算法!最简单的想法:对每一个节点执行定长,无偏随机游走,即DeepWalk from Perozzi et al., 2013,但是这种执行方式好像不太好,有局限性。这有个扩展Perozzi et al. 2014.
Node2vector
- 目标:相似的网络邻居经过节点嵌入之后他们在特征空间的坐标也是临近的。
- 我们将这个目标建模为最大似然优化问题,且与后续的预测任务相互独立。
- Key observation: 如果节点有灵活的网络邻域概念,那么将会对更加丰富的节点嵌入。
- 开发2阶有偏随机游走策略 来生成节点的网络邻域. 参考Grover et al. 2016.
有偏游走:
思路:使用灵活、有偏能够平衡网络中的局部和全局概念。
下面说明两个经典的定义节点的网络邻域的算法,即广度优先搜索和深度优先搜索:
两种方法的特点:
- BFS:关注节点邻居的微观结构
- DFS:关注节点邻居的宏观结构
下面介绍对于BFS和DFS两个重要的参数
参数应用:使用有偏的2阶随机游走研究网络邻居。如下图
- 随机游走在边上穿梭,现在从回到
- 从内部看,的邻居节点只能是 , , , 且到 , ,的距离相等,到 的距离远于.
Key idea: 记住游走过程的上一个节点。
随机游走在上游荡,现在在节点处,下一步怎么走?(其中是前面提到的模型转换概率)答:使用BFS和DFS算法
BFS和DFS算法在随机游走的性质是什么?参数应该怎么选择?
- BFS选择较小的 . 我的理解是因此BFS在随机游走中主要关注邻居的微观结构,不偏向于走的太远,所以更可能走重复的路径。
- DFS选择较小的. 我的理解是因为DFS在随机游走中主要关注邻居的宏观结构,希望走的很深,很远,所以要避免走重复的路径,尽可能去距出发节点较远的点。
随机游走算法步骤:
- 计算随机游走的两个概率参数 .
- 对每一个节点模拟次长度为随机游走.
- 用随机梯度下降法优化ndoe2vec目标函数。
上述算法的特点:
- 线性时间复杂度
- 所有的3个步骤都可以独立并行计算。
其他的随机游走算法:
- Different kinds of biased random walks:
- Alternative optimization schemes
- Network preprocessing techniques
Node2vec总结
- 核心思想:嵌入节点,使嵌入空间的距离反映原网络中节点的相似性。
- 节点相似度的不同概念:
- Naïve: 2节点连接时相似
- 邻域重叠(在第二讲中涉及)
- 随机游走方法
总的来看随机游走算法在大多数情况下拥有比较好的性能。
Embedding Entire Graphs
目标:将子图或者整张图嵌入embedding空间。Graph embedding: .
任务:
- 分类有毒和无毒的分子
- 识别异常图。
方式一
最简单的方法:使用上面的节点嵌入方式得到所有的节点嵌入;然后对所有的节点嵌入求合或者求平均(被Duvenaud et al., 2016用来做分子分类):
方式二
引入一个虚拟节点然后执行一个标准的图节点嵌入,将求得的虚拟节点嵌入作为整个图的嵌入(proposed by Li et al., 2016 as a general technique for subgraph embedding)。
方式三
匿名随机游走(Anonymous walk embeddings,Anonymous Walk Embeddings, ICML 2018 )
匿名游走中的状态对应于我们在随机漫步中第一次访问该节点的索引。
匿名随机游走例子:
Step 1: node A node 1
Step 2: node B node 2 (different from node 1)
Step 3: node C node 3 (different from node 1, 2)
Step 4: node B node 2 (same as the node in step 2)
Step 5: node C node 3 (same as the node in step 3)
Random walk2表示了同样的匿名随机游走结果。
游走内容的数量的大小与游走的路径长度有关。如游走长度为3,游走内容的数量为5:
匿名游走的简单使用:
- 设置随机游走的路径长度为
- 按照上面的图表得到,随机游走的内容最多为5,因此我们可以都得一个5维的向量。
- 表示 在整个匿名游走的过程出现的概率。
随机游走的采样
- 抽样匿名游走:独立的生成集合数量为 的随机walks。
- 将图表示成这个集合上的概率分布
存在一个关键问题:我们应该采样多少次,即随机游走数量 应该为多少?
New idea:learn walk embeddings
不同于简单的将游走发生的次数作为不同游走的表示,这节学习匿名游走的嵌入 .
学习图嵌入 的同时学习所有匿名游走的嵌入 ,其中 表示采样随机游走的个数。
如何嵌入walks?
思路:要得要嵌入walks要解决预测walks的任务,即给出一定数量某个节点的walks,然后利用这些walks预测下一步的walk(Anonymous Walk Embeddings, ICML 2018)。
步骤如下:
- 以节点 原点执行T次长度为 的随机游走得到.
- 利用采样得到的采样点,预测在窗口内发生的walks(例如,给定, , 预测)
- 估计匿名游走的嵌入, 是所有可能的游走嵌入数目
下面结合Anonymous Walk Embeddings, ICML 2018对上面一些我认为难理解的部分进行解释:
- 关于的解释。是以节点开始的匿名随机游走所有元素的集合。目标函数中的就是中的元素。下图为使用来预测出现的概率,并计算出和图的嵌入。
- 此外需要说明的参数和并不是拥有相同的维数。函数表示将两个向量拼接成一个向量,简答的首尾连接.
在得出图嵌入之后,我们可以使用 来进行其他的操作如图分类
总结
我们讨论了图嵌入的3个概念:
- 方法1:嵌入节点并对其求和/取平均值
- 方法2:创建跨(子)图的超级节点,然后嵌入该节点
- 方法3:匿名随机游走嵌入
- Idea 1:对匿名游走进行抽样,并用每一次匿名游走发生的次数的比例表示这个图。
- Idea 2:嵌入匿名行走,连接它们的嵌入得到一个图嵌入
[1] https://arxiv.org/pdf/1402.3722.pdf
更多推荐
所有评论(0)