Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

关于与HAN的对比 #1

Open
yuanyuansiyuan opened this issue Oct 18, 2020 · 2 comments
Open

关于与HAN的对比 #1

yuanyuansiyuan opened this issue Oct 18, 2020 · 2 comments

Comments

@yuanyuansiyuan
Copy link

您好,
1.我理解的本文与HAN的区别在于,HAN通过元路径【一跳或多跳】一次性确定了每个节点的邻居节点集合,没有考虑元路径除了首尾外的其他节点,图上的聚合操作就是基于邻居节点集合只进行了一次迭代,相当于 GAN layer=1.
而本文是在每条rule(元路径)上进行了GCN的聚合操作,rule长度为N, 就迭代N次(GCN layer=N),得到中心节点的聚合表达.
Attention实现方面,HAN针对每条路径上多个邻居之间,多条路径之间计算了两层attention。本文是对所有rules学习了一个全局的权重参数W, 相当于是HAN中的多条路径间的attention? 请问您有跟HAN对比过么?
2.从图三来看,是只以user为中心进行了迭代,对item表示mi为什么不也为中心进行学习呢?
3.本文与KGCN, KGAT最核心的区别是否就是把GCN的传播路径限制到了挑选过的高质量rules上,从而来提升推荐准确性和可解释性?

@nxznm
Copy link
Collaborator

nxznm commented Oct 19, 2020

您好!

  1. 是的,HAN聚合的是meta-path based neighbors (只考虑元路径首尾,没有考虑路径中间的其他节点)。我们这里迭代N次,每次聚合一跳邻居节点信息,在N次聚合后,距离中心节点N跳的节点的信息也聚合进中心节点了。Attention方面,HAN是进行了节点层面与语义层面两次attention操作。我们方法中提出的规则权重W的预训练过程不是标准的attention过程 (但这里W的意义的确是为了聚合不同规则指导产生的user embedding)。我们没有与HAN做对比,因为HAN只是一种GNN架构模型,其并不是面向推荐任务所提出的模型。
  2. 我们这篇工作主要关注于user embedding (可以这么理解,我们用rules+GNN来为每个user做个user profile,相关工作中的RippleNet也是这样关注于user embedding的建模),可以参考这里大致理解下推荐系统中user embedding和item embedding的区别和联系。
  3. 是的,通过高质量的rules来保证在GNN聚合时邻居节点的准确性 (避免一些不重要邻居节点引入的噪声)。

希望以上这些能给您带来些与帮助!

@yuanyuansiyuan
Copy link
Author

非常感谢您的回复,解决了我的疑问,您的工作很棒,继续学习中~

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants