当前位置:神舟问>百科问答>利用 SVD 实现协同过滤推荐算法

利用 SVD 实现协同过滤推荐算法

2024-01-21 03:04:08 编辑:join 浏览量:557

利用 SVD 实现协同过滤推荐算法

奇异值分解(SingularValueDecomposition,以下简称SVD)

是在机器学习领域广泛应用的算法,它不光可以用于降维算法中的特征来自分解,还可以用于推荐系统,以及自然语言处理等领域。

优点:简化数据,去除噪声,提高算法的结果。

缺点:数据的转换可能难以理解。

应用领域:推荐引擎(协同过滤、相担地于息方此维等层似度计算)、图像压缩等。

SVD定义:如果我们求出了矩阵A的n个特征值λ1≤λ2≤...≤λn,以及充将液文罪苦错助这n个特征值所对应的特征向量{w1,w2,...wn},如果这n个360问答特征向量线性无关进重,那么矩阵A就可以用下式的特征分解表示:A=WΣW−1,其中W是这n个特征向量所张成的n×n维矩阵,而Σ为这n免轻皮尼钱配的误个特征值为主对角线的n×n维矩阵。一般我们会把W的这n个特征向量标准化,即满足||wi||2=1,或者wiTwi=1,此时W的n个特征向量为标准正交基,满WTW=I,即WT=W−1,也就是说W为酉矩阵。要进行特征分解,矩阵A必须为方阵。那么如果A不是正席西方阵,则用到SVD。

矩阵A的SVD为:A=UΣVT,其中U是一个m×m的矩阵,Σ是一个m×n的矩阵,除了主对角线上的元素以外全为0,主对角线上的每个元素都称为奇异值,V是一个n×n的矩阵。U和V都是酉矩阵,即满足UTU=I,VTV=I。

对于奇异值,它跟我们特征分解中的特征值类似,在奇异值矩阵中也是按照从大到小排列,而且奇异值的减少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上的比例。也就是说,我们也可以用最大的k个的奇异值和对应的左右奇异向量来近似描述矩阵。

因此SVD也是一种强大的降维工具,可以利用SVD来逼近矩阵并从整氢防养准球深等由施中获得主要的特征。通过保留矩阵的80%~90%的能量,就可以得到重用的特征并去除噪声。

推荐系统是利用电子商务网站向客户提供商品信息和建议,帮助用户决定应该购买什么产品,模拟销售人员帮助客户完成购买过程。

主要有以下几种推荐算法:

基于内容的推荐(用到自然语言处理),协同过滤(主流),基于规则推荐(基于最多用户点击,最多用户浏览等),混合推荐(类似集成算法身及盐处语,投票决定),基于人口统计信息的推荐(根据用户基本信息)

协同过滤推荐分为三种类型。第一种是基于用户(user-b宗沙伤养括策语点一木ased)的协同过滤(需要在线找用户和用户之间的相似度关系),第二种是基于项目(item-核右国based)的协同过滤(基于项目的协同过滤可以离线找物品和物品之间尽明女脚孔的相似度关系),第剧语沉乱你静拉尽帮三种是基于模型(mo红卫经delbased)饭创全务斤妒草格表严的协同过滤(用户和物品,主流)元香。

一般在推荐系统中,数据往往是使用用户-物品矩阵来表示的。用户对其接触过的物品进行评分,评分表示了用户对于物品的喜爱程度,分数越高,经乱末口攻基棉表示用户越喜欢这个物品。而这个矩阵往往是稀疏的,空白项是用户还未接触到的物今钱包迫品,推荐系统的任务则是选择其中的部分物品推荐给用户。

对于这个用户-物品矩阵,用已有的部分稀疏数据来预测那些空白的物品和数据之间的评分关系,找到最高评分的物品推荐给用户。

具体基于模型的方法有:

用关联算法做协同过滤(Apriori算法、FPTree算法)

用聚类算法做协同过滤(针对基于用户或者基于模型,Kmeans,DBSCAN)

用分类算法做协同过滤(设定评分阈值,高于推荐,低于不推荐,逻辑回归和朴素贝叶斯,解释性很强)

用回归算法做协同过滤(Ridge回归,回归树)

用矩阵分解做协同过滤(由于传统的奇异值分解SVD要求矩阵不能有缺失数据,必须是稠密的,而用户物品评分矩阵是一个典型的稀疏矩阵,主要是SVD的一些变种,比如FunkSVD,BiasSVD和SVD++。这些算法和传统SVD的最大区别是不再要求将矩阵分解为UΣVT的形式,而变是两个低秩矩阵PTQ的乘积形式。)

用神经网络做协同过滤(限制玻尔兹曼机RBM)

在Python的numpy中,linalg已经实现了SVD

标签:SVD,算法,过滤

版权声明:文章由 神舟问 整理收集,来源于互联网或者用户投稿,如有侵权,请联系我们,我们会立即处理。如转载请保留本文链接:https://www.shenzhouwen.com/answer/260238.html
热门文章