【论文解读 WSDM 2018 | DRL】Curriculum Learning for Heterogeneous Star Network Embedding via DRL

最新推荐文章于 2022-01-01 18:30:20 发布
最新推荐文章于 2022-01-01 18:30:20 发布

论文链接: http://hanj.cs.illinois.edu/pdf/wsdm18_mqu.pdf

代码链接: https://github.com/mnqu/DRL

会议:WSDM 2018

本文将深度强化学习应用到了异构星型网络的表示学习中。在异构星型网络表示的学习过程中通常需要采样一系列的边来得到点之间的相似性,作者发现这些边的顺序会显著影响表示学习的效果。作者借鉴了课程学习(Curriculum Learning)的思想,研究如何在网络表示学习中学习这些边的采样顺序。该问题可以形式化为马尔可夫决策过程,作者提出了一个基于深度强化学习的解决方法。

本文聚焦于 异构星型网络 节点表示学习 问题。异构星型网络有一个中心节点,通过不同类型的边和多个不同类型的属性节点相连。在异构星型网络中,不同类型边的训练顺序会影响模型的表现效果。作者在异构星型网络的节点表示学习中,引入 课程学习 的思想。为节点表示学习 学习到一个最优顺序的边序列

问题可被形式化为 马尔科夫决策过程 动作 是为训练选择特定类型的边, 状态 是到目前为止选择的边的类型序列。 奖励 由实际任务中的准确度定义, 目标 是采取一系列的动作以实现 最大化积累奖励

作者提出基于深度强化学习的方法解决上述问题。利用LSTM模型编码状态(state),并估计每个状态-动作对(state-action pair)的期望累计奖励。(在 节点分类任务 上做了实验)

异构星型网络有一个中心节点,通过不同类型的边和多个不同类型的属性节点相连。许多问题都可以形式化为异构星型网络上的问题,例如author identification、predictive text embedding、user attribute prediction。下图是一个引文领域的异构星型网络:

节点表示学习的关键就是 获取编码在边中的节点间相似度信息 ,所以需要采样不同类型的边作为训练数据。现有的方法通常采用随机采样、加权采样的方式, 不考虑不同类型边之间的相对顺序 。然而, 每种类型的边都编码了特定的知识 ,可能会对不同的训练步骤带来影响,也就是说 边类型的训练顺序在训练中很重要

例如上图所示,在学习paper节点的表示时,venue粗略反映了文献的类型,而keywords和references更具体地刻画了文献的语义信息。

受课程学习的启发,粗略的语义信息可能更易理解,且可能对更具体的语义信息的学习起到帮助作用。 先选择简单的样本进行学习,然后逐渐增加学习难度

2.1 动机

尽管课程学习已被广泛研究,但是在异构星型网络的节点表示学习中, 如何学习到有意义的训练数据顺序,还没有被研究过 。其中,课程被定义为用于训练的边类型序列。问题 实际上是一个连续的决策任务 ,作者将其形式化为马尔科夫决策过程。每一步的动作是为训练选择特定类型的边,状态是到目前为止选择的边的类型序列。在每个状态采取了一个动作后,转移到下一个状态且得到了一个回报。目标是学习到一个边类型的序列以最大化整体的回报和。但是搜索空间是序列长度的指数倍,作者提出的方法可以有效高效地进行学习。

2.2 作者提出

基于深度强化学习的方法,进行异构星型网络的表示学习。通过估计每个状态-节点对(state-action pair)的回报值Q,学习到最优的课程序列。

Q值的学习来源于 计划模块 学习模块 。给定状态后,计划模块通过 向前看 (looking ahead)计算Q,通过模拟发掘出了子序列动作,然后用模拟出来的回报估计Q值。然而,学习模块是通过 向后看 (looking back)来估计Q。作者使用了 LSTM 模型 ,通过学习过去的经验进一步做预测。

使用这两个模块,可以高效准确地估计Q值。从而高效有效地学习到有意义的课程。

2.3 贡献

(1) 定义了一个新问题 ——使用课程学习方法解决异构星型网络的节点表示学习;

(2)上上述问题形式化为马尔科夫决策过程, 提出基于深度强化学习的解决方法

(3)在真实存在的异构星型网络上进行了 实验 ,证明了本文方法的有效性和高效性。

3.1 问题定义

(1)异构星型网络: G=(V_0\cup {\{V_k}\}^K_{k=1},{\{E_k\}}^K_{k=1})V_0 是中心节点, {\{V_k\}}^K_{k=1} 是和 V_0 相连的属性节点, {\{E_k\}}^K_{k=1} 是中心节点和属性节点之间的连边,每条边都有w>0的权重,表示连接节点之间的关系强度。

(2)问题定义:给定异构星型网络 G 和回报函数 R(s,a) 。对于每个状态-动作对(s, a),采取一系列的动作以最大化回报的总和,为训练过程学习到一个边类型序列。

3.2 METHODOLOGY

问题形式化为马尔科夫决策过程,每一步的动作是选择一个特定类型的边(记为 a=y_t , y_t \in {\{1,2,..,K}\} ),或者是判断终止条件( a=STOP )。状态定义为到目前为止所选边类型的序列, s=(y_1,y_2,y_3,...,y_{t-1}) 。在每个状态下完成一次动作后,会转移到下一个状态,并且通过回报函数 R ( s , a ) ,计算得到一个回报 Q(s,a) 。对于不同的任务,回报函数也不同,例如节点分类任务的回报为动作发生后的准确度增益。最终的目标是采取一系列的动作以最大化回报,为训练过程学习到一个边类型序列。

一旦学习得到Q值,就可以通过连续地选择每一步使Q最大化的动作,组成最优的动作序列。

Q值的学习来源于 计划模块 学习模块 。为了权衡有效性和高效性,对每个动作都有一定的惩罚。当为一个动作计算回报时,根据回报函数的计算结果,减去一个常值惩罚。小的惩罚值鼓励学习到更长的序列,这有益于有效性,但不利于高效性;大的惩罚值鼓励学习到更短的序列,这不利于有效性,但有利于高效性。

框架的整体结构如下图所示:

3.2.1 Planning Module

计划模块是从给定的状态出发向前看,模拟出子序列动作,估计 Q p 的值。每次模拟时,先选择动作序列,然后使用节点表示学习算法模拟动作,并计算回报,根据回报进一步优化 Q p 。具体流程如下:

状态-动作对(state-action pair)的回报值 Q_p(s,a) 是使用look-up table计算的。像蒙特卡洛树搜索一样,给定状态s,每次模拟都递归地选择一些动作,直到访问到未被访问的状态为止(上图中的黄色状态)。针对状态s,使用如下的公式选择动作a:

Q_p(s,a),Q_l(s,a) 分别是计划模块和学习模块计算出的Q值,N(s, a)访问次数, N(s)=\sum_aN(s,a) 是状态s的访问次数和。

到达未被访问的状态后,使用节点表示算法模拟被选的动作,也就是使用相应类型的边更新节点表示,或者是终止训练过程。接着,在学习得到的节点表示上应用回报函数就可计算出回报值。基于下式,更新 Q_p

其中 \alpha=\frac1{N(s_i,a_i)} 是学习率, r_i 是在状态 s_i 处采样动作 a_i 后的即时回报, Q_p(s_{i+1},a_{i+1}) 是对长期回报的估计。

3.2.2 Learning Module

学习模块是向后看(looking back),回看过去的经验,使用深度神经网络记忆历史数据,估计 Q_l

在DNN中,用向量表示每种类型的边 y \in {\{1,2,...,K\}} 和动作 a \in {\{1,2,...,K\}} 。用LSTM层编码状态 s=(y_1,y_2,y_3,...,y_{t}) ,然后将状态s和动作a的编码向量拼接起来,使用两层全连接网络计算 Q_l(s,a) 。网络结构如下图所示:

使用LSTM编码状态序列,可以有效的获取不同状态之间的相关性。基于新的状态-动作对(state-action pair)与之前的相关性,可以有效地推断出 Q_l 的值。

为了学习到DNN的参数,作者将计划模块模拟得到的state-action pairs和相对应的回报作为训练数据。模拟得到的state-action序列记为 (s_t,a_t,...,s_{t+l},a_{t+l},s_u) ,相对应的回报序列记为 (r_t,...,r_{t+l}) 。基于下式进行参数更新:

3.2.3 整合两个模块

给定当前状态s,为动作a计算回报值:

Q_p 是基于前向搜索的,相对更精确,所以在式中占更大的权重。 Ql 是基于过去的经验进行学习的,权重值会随着访问次数的增加而减小。

回报值Q估计了在状态s采取动作a的回报期望,让Q最大的动作 a^* 是当前步骤的最好选择。选择动作 a^* 也就是为节点表示学习选择了合适的边类型,或者是实现了训练过程的终止条件。

本文提出的基于课程学习的节点表示学习过程,整体算法如下:

数据集: DBLP、Yelp、IMDB

实验任务: 中心节点分类任务(有监督和无监督两种实验设置)

对比方法

(1)LINE和node2vec都是用于同质图的方法,为了适用于本文工作的异构星型网络,作者给不同类型的边赋予了不同的权重。

(2)Rand:在每步训练选择不同类型的边,并使用LINE学习节点的表示。

(3)Greedy:根据每步最大的即时回报,贪婪地选择动作,并使用LINE学习节点表示。

(4)DRL:使用本文的深度强化学习的方法,学习得到合适的序列,并使用LINE学习节点表示。

(5)DRL-Shuf:打乱本文方法学习到的序列,并使用LINE学习节点表示。

(6)DRL-P:只使用计划模块,学习模块的回报值保持为0。

(7)DRL-L:只使用学习模块,计划模块的回报值保持为0。

实验结果:

无监督设置下的实验结果如下:

半监督设置下的实验结果如下:

本文的工作是针对异构星型网络的节点表示学习。

前人的方法都没有考虑到不同类型边的训练顺序 ,作者的动机就是学习到有意义的不同类型边的训练顺序,以提高表示学习的能力。

作者使用 深度强化学习 的方法解决了这一问题,具体来讲用的是课程学习(curriculum learning)的方法,并且使用了强化学习中的 学习 (learning)和 计划 (planning)策略。第一个将 课程学习 应用到了异构星型网络的节点表示学习 上。

本文的工作是针对异构星型网络的,课程(curriculum)指的是边类型的序列。作者考虑未来将这一框架扩展至一般的异构网络中,那时的课程就可以定义成meta-path的序列,或者hyper-edges的序列。

研究的问题很有新意 ,想到的 解决方法 (课程学习) 也很有新意 。本文在HIN表示学习的具体 贡献体现在模型的训练过程中 ,即如何获取更有效的按照一定顺序的训练数据,以优化模型的 节点表示学习 能力。并没有像以往大多数的论文一样,提出更好的HIN嵌入学习方法。但作者的想法还是非常有新意的。

【论文解读 WSDM 2018 | DRL】Curriculum Learning for Heterogeneous Star Network Embedding via DRL 论文链接:http://hanj.cs.illinois.edu/pdf/wsdm18_mqu.pdf代码链接:https://github.com/mnqu/DRL会议:WSDM 2018本文将深度强化学习应用到了异构星型网络的表示学习中。在异构星型网络表示的学习过程中通常需要采样一系列的边来得到点之间的相似性,作者发现这些边的顺序会显著影响表示学习的效果。作者借鉴了课程学习(... 也称为网络表示学习,图嵌入,知识嵌入等。 任务是从给定网络中学习顶点的表示形式。 呼吁帮助:我计划在不久的将来重新组织具有清晰分类索引的 论文 。 如果您发现任何有趣的相关工作,请随时提交提交:) 带有实施的 论文 参考 图形健身房 用于设计和评估图形神经网络(GNN)的平台,NeurIPS 2020 图上的特征函数:从统计描述符到参数模型的羽毛鸟,CIKM 2020 异构信息网络上的对抗学习,KDD 2019 NetMF 网络嵌入作为矩阵分解:统一DeepWalk,LINE,PTE和Node2Vec, WSDM 2018 GL2Vec GL2vec:具有边缘功能的线图丰富的图形嵌入,ICONIP 2019 国家统计局 用于社区检测的非负对称编码器/解码器方法,CIKM 2017 SymmNMF 图聚类的对称非负矩阵分解,SDM 2012
Curr icu lum L ear ning 论文 原文: Curr icu lum L ear ning 课程学习( Curr icu lum L ear ning )由Montreal大学的Bengio教授团队在2009年的ICML会议上提出,主要思想是模仿人类学习的特点,由简单到困难来学习课程(在机器学习里就是容易学习的样本和不容易学习的样本),这样容易使模型找到更好的局部最优,同时加快训练的速度。 Abstract 如有侵权,请私信本人 参考链接:https://www.dazhuanlan.com/2019/11/21/5dd617335da12/ https://blog.csdn.net/qq_25011449/article/details/82914803 关于transfer L ear ning 和fine-tu ning 的区别就是,transfer L ear ning 是一种理念(concept),而fine-tu ning 则是其实现的具体方法。 而 Curr icu lum
强化学习(Reinforcement L ear ning ,RL)正成为当下机器学习中最热门的研究领域之一。与常见的监督学习和非监督学习不同,强化学习强调智能体(agent)与环境(environment)的交互,交互过程中智能体需要根据自身所处的状态(state)选择接下来采取的动作(action),执行动作后,智能体会进入下一个状态,同时从环境中得到这次状态转移的奖励(reward)。 强化学习...
以下内容转载于: https://blog.csdn.net/weixin_40400177/article/details/103329924 NRL: network representation l ear ning . NE: network embedding . Content Survey Papers Models Bacis Models Attributed Network Dyn...
Heterogeneous Network Embedding via Deep Architectures中心思想方法1. text和image的表达image的表达text的表达2. 映射到相同的空间3. 目标函数学习整体网络总结 论文 使用深度网络建模,学习异构信息网络中的节点的向量表达。 将异构信息网络中的不同类型的顶点映射到相同维度的空间, embedding 到相同维度的向量表达。...
Heterogeneous Network Embedding via Deep Architectures》 论文 分析 《 Heterogeneous Network Embedding via Deep Architectures》发表在KDD2015 1. 论文 思路: 在本文中,研究了具有不同类型节点和内容的异构网络的场景。设计了一种网络数据的深度嵌入算法。采用高度非线性的多层嵌入...
为了说明看过CVPR2016全部文章的摘要,总结一下,摘要只保留了创新点部分。 ORAL SESSION Image Captio ning and Question Answering Monday, June 27th, 9:00AM - 10:05AM. These papers will also be presented at the following poster sessio
文章目录问题定义有效性分析1. 模型优化角度数据分布角度方法总结未来研究方向 Bengio [1] 首先提出了课程学习( Curr icu lum l ear ning ,CL)的概念,它是一种训练策略,模仿人类的学习过程,主张让模型先从容易的样本开始学习,并逐渐进阶到复杂的样本和知识。 有效性分析 1. 模型优化角度 CL可以.
【论文翻译 AAAI 2020 | 知识图谱综述】A Survey on Knowledge Graphs: Representation, Acquisition and Applications 14761 【论文解读 WWW 2020 | MAGNN】Metapath Aggregated Graph Neural Network for Heterogeneous Graph Embedding 10657 【论文解读 MM 2017 | att-RNN】Multimodal Fusion with RNNs for Rumor Detection on Microblogs weixin_52194882: 不好意思,想问一下您有找到数据集吗? 【论文解读 MM 2017 | att-RNN】Multimodal Fusion with RNNs for Rumor Detection on Microblogs 啵味丸子酱: 请问这个数据集您找到了吗 【论文解读 CIKM 2018 | JUST】Are Meta-Paths Necessary? Revisiting Heterogeneous Graph Embeddings 那我来问你: 这篇论文竟然不用深度学习那些东西就能做,真的厉害! 【论文解读 arXiv 2019 | HDGI】Heterogeneous Deep Graph Infomax NIBEIUNGEN: 联合分布可以认为是综合考虑两个变量,边缘分布时单独考虑两个变量。负样本是被函数C打乱了的,因此可以认为是边缘分布。 具体可以看这里:https://zhuanlan.zhihu.com/p/149743192 【论文解读 AAAI 2020 | Bi-GCN】Rumor Detection on Social Media with Bi-Directional GCN 你好,请问根据传播结构是如何区分谣言和非谣言的? 【论文解读 ACL 2020 | MixText】Linguistically-Informed Interpolation of Hidden Space for 半监督文本分类 【论文解读 AAAI 2021】Few-shot Learning for Multi-label Intent Detection 【论文解读 ASONAM 2019】Semi-Supervised Learning and Graph Neural Networks for Fake News Detection