We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
您好, 1.我理解的本文与HAN的区别在于,HAN通过元路径【一跳或多跳】一次性确定了每个节点的邻居节点集合,没有考虑元路径除了首尾外的其他节点,图上的聚合操作就是基于邻居节点集合只进行了一次迭代,相当于 GAN layer=1. 而本文是在每条rule(元路径)上进行了GCN的聚合操作,rule长度为N, 就迭代N次(GCN layer=N),得到中心节点的聚合表达. Attention实现方面,HAN针对每条路径上多个邻居之间,多条路径之间计算了两层attention。本文是对所有rules学习了一个全局的权重参数W, 相当于是HAN中的多条路径间的attention? 请问您有跟HAN对比过么? 2.从图三来看,是只以user为中心进行了迭代,对item表示mi为什么不也为中心进行学习呢? 3.本文与KGCN, KGAT最核心的区别是否就是把GCN的传播路径限制到了挑选过的高质量rules上,从而来提升推荐准确性和可解释性?
The text was updated successfully, but these errors were encountered:
您好!
希望以上这些能给您带来些与帮助!
Sorry, something went wrong.
非常感谢您的回复,解决了我的疑问,您的工作很棒,继续学习中~
No branches or pull requests
您好,
1.我理解的本文与HAN的区别在于,HAN通过元路径【一跳或多跳】一次性确定了每个节点的邻居节点集合,没有考虑元路径除了首尾外的其他节点,图上的聚合操作就是基于邻居节点集合只进行了一次迭代,相当于 GAN layer=1.
而本文是在每条rule(元路径)上进行了GCN的聚合操作,rule长度为N, 就迭代N次(GCN layer=N),得到中心节点的聚合表达.
Attention实现方面,HAN针对每条路径上多个邻居之间,多条路径之间计算了两层attention。本文是对所有rules学习了一个全局的权重参数W, 相当于是HAN中的多条路径间的attention? 请问您有跟HAN对比过么?
2.从图三来看,是只以user为中心进行了迭代,对item表示mi为什么不也为中心进行学习呢?
3.本文与KGCN, KGAT最核心的区别是否就是把GCN的传播路径限制到了挑选过的高质量rules上,从而来提升推荐准确性和可解释性?
The text was updated successfully, but these errors were encountered: