AI大模型学习
AI博客
原创AI博客
大模型技术博客
AI大模型排行榜
业界大模型评测基准
全球大模型最新评测基准结果
大模型综合能力排行榜
大模型编程能力排行榜
LMSys ChatBot Arena排行榜
Berkeley大模型工具使用能力排行榜
OpenLLMLeaderboard中国站
全球大模型最新评测结果
AI大模型大全
大模型部署教程
2023年度AI产品总结
AI资源仓库
AI领域与任务
AI研究机构
AI数据集
AI开源工具
数据推荐
AI大模型
国产AI大模型生态全览
AI模型概览图
AI模型月报
AI基础大模型
AI大模型工具导航
AI大模型工具导航网站
在线聊天大模型列表
Multi-Relational Matrix Factorization using Bayesian Personalized Ranking for Social Network Data
Vanessa He
WSDM(International Conference on Web Search and Web Data Mining)
2012-09
2120
2017/03/06 17:24:44
****社交网络使得很多用户愿意与其他人或者事物之间的关系,在文献中提到的一个重要的任务就是用社交图来预测用户的偏好行为,同时在社交领域中的最重要的应用就是根据用户感兴趣事务或人的可能性大小给用户提供一个产品推荐列表。 在推荐系统中最突出的方法之一就是矩阵分解,但是社交数据往往是两个或者多个矩阵(社交关系和目标关系),因此想要应用矩阵分解方法,必须要采取多关系变量的方法。而多关系矩阵分解可以被看作是用稀疏矩阵模型来表示特征抽取和产品预测,但是到底应该循序表示两个矩阵模型,还是应该同时被表示,这个问题依旧是不太明确的。另外,根据一个给定用户的偏好进行产品排序,确定一个合适的准则来优化模型具有重要意义。贝叶斯个性化排序(BPR)在产品推荐任务中有较好的结果展示,但针对多关系任务而言,BPR是否是一个合适的优化准则仍需要讨论。于是,针对这些问题,便开始了本文的利用贝叶斯个性化排序的多关系矩阵分解的研究。 **一、论文研究贡献** 1、形式化社交网络中关于多关系学习的推荐问题,提出一个多关系分解框架; 2、为多关系情况扩展BPR框架并展示其可被采用于不同的评估措施; 3、经验证明联合分解比循序分解的加过更好; 4、实验证明,在社交网络推荐问题和真实数据中的冷启动问题上,多关系BPR方法都比基准方法结果要更好。 **二、论文研究思路** **1、社交网络中的冷启动推荐** 模型只对一种关系进行预测时,这个关系被称为目标关系(target relation),用Y来表示,那么,其他的关系都被称为辅助关系(auxiliary relation),用A来表示。 在本文的研究工作中,只有两种实体ε={U,I},U表示用户集,I表示产品集。目标关系表示用户和产品之间的互动信息,表示为Y∈U×I;辅助关系表示用户和其朋友之间的社交关系,表示为A∈U×U。举例来看,产品集可以是用户参与的社区、发表的博客或者视频等,辅助关系可以是用户的好友关系,隐式反馈Y可以表示成用户看了视频、用户发表了博客或者用户参与了社区,这可以假定为用户对其感兴趣。 任务就是根据用户对产品的偏好概率,得到一个偏好排序的产品列表。﹥_u表示所有产品的排序。  如图1所示,社交图G={U,A},在目标关系中将数据被分为训练数据和测试数据,减轻冷启动效果以及信息间的不合作问题。 如表1所示,列举了3种能够解决冷启动问题的方法:  **2、基于BPR的多关系学习** 多关系分解模型为共同分解多关系提供了框架。 **(1)利用BPR构建多关系分解模型** 在解决排序问题上,利用优化损失函数的方式有较好的表现。其中,贝叶斯个性化排序准则The Bayesian personalized ranking optimization criterion(BPR-Opt)在一般排序和产品预测上较为成功,另外,BPR在社交网络排序问题上较为适合的另一重要原因是该方法是为一元积极反馈数据(如用户产品交互数据(u,i))量身制作的。 BPR-Opt假定(u,i)∈Y中的产品i比(u,j) ∈Y中的产品j的排序更靠前。 BPR-Opt可被表示如下:  其中,是sigmoid logistic 函数。BPR-Opt应该是要取最大化值的。BPR-Opt的优化主要是通过AUC(Area under the ROC Curve)来实现的,其证明结果详见《BPR: Bayesian Personalized Ranking from Implicit Feedback》论文笔记。 损失函数确定之后,接下来就是选择合适的正则化项。本文中选择L2正则化项,因为L2正则化项便于后面使用随机梯度下降的方法,并且不但可以防止过拟合,还可以让我们的优化求解变得稳定和快速。 ##### 本文的核心便是在社交网络多关系下利用贝叶斯个性化排序方法拓展BPR-Opt方法,具体如下:  其中,λ_E是实体E的正则化常数,α_R表示关系R的损失权重。 BPR-Opt可以通过随机梯度下降算法(LearnBPR)来优化,如下图伪代码所示:  每一次的迭代,关系R的抽样都是均匀的从D_R中抽取的,而参数是沿着损失函数梯度的相反方向进行更新的。BPR-Opt的导数如下:  其中x_uij的偏导如下:  这里的f表示实体中的第f个隐特征。 **(2)私有化** 一般,推荐问题分为以下两种: A:给一个用户,发现他可能会感兴趣的产品? B:给一个产品,发现哪些用户可能会对它感兴趣? 关于A类的推荐问题,在上面提出的BPR优化算法中就可以得以实现。抽样样本D_Y=(u,i,j)。 而对于B类推荐问题,则将原来的抽样样本Y转化成其转置即可,=(i,u,v)。 这两种推荐问题的优化模型则可表示如下: 
赏
支付宝扫码打赏
如果文章对您有帮助,欢迎打赏鼓励作者
Back to Top