您现在的位置主页 > 相关新闻 > 正文 

内容详情

机相关新闻械进修中利用矩阵分化进行系统保举

发布时间:2018-08-11 19:05 点击次数:  |作者:admin|文章来源:未知

  界的时代在数字世,电子商务网站或娱乐网站或社交网站我们在每个地区看到推荐的天气是。荐选择(基于过去的活动)建议不仅为用户提供了推,(情感分析或情绪AI)而且还介绍了用户行为。

  先首,什么是推荐让我们了解。搜索/活动向用户推荐项目它基本上是基于其过去的。

  去的搜索来告诉亚马逊的建议图1基于过去的浏览历史和过。以所,过去的行为来预测未来的行为我们可以说推荐基本上是根据。使用了两种方推荐系统中法。

  推荐项目的想法它基于向用户K,评价的先前项目类似该项目与由K高度。IDF(术语频率 - 逆文档频率)基于内容的过滤中的基本概念是TF-,文档/文字/电影等其用于确定重要性。示了建议的透明度基于内容的过滤显,过滤不同但与协作,地处理大量数它不能有效据。

  样的想法它基于这,会在某些其他类型的项目中共享相同的兴趣即对某些类型的项目具有相同兴趣的人们也,的处理现实生活活动时不同这与基于元数据的基于内容。灵活的(或者我们可以说它是无域的)这种类型的过滤对于大多数域来说是,冷启动问题但是由于,由矩阵分解处理的)数据稀疏性(这是,些情况下面临一些挫折这种类型的算法在某。

  ix)竞赛(2006)结束后备受关注《矩阵分解》在网飞公司(Netfl,提高10%的人提供100万美元的奖金当时网飞公司宣布向那些将其均方根性能。提供了一套100Netflix,804,分的培训数据507个评,71,获得了480770部电影,用户的评分189个。

  协同的滤波方法矩阵分解是基于,为m*k和k*n将矩阵m*n分解。矩阵运算的计算它主要用于复杂。法是这样的矩阵的除,解后的矩阵相乘如果我们将分,原始矩阵就会得到,2所示如图。潜在特征(可用于多个实体它用于发现两个实体之间的,于张量分解但这将属)?

  矩阵分解成L和U矩阵1- LU分解——将,下三角矩阵其中L为,三角矩阵U为上,线性回归系数一般用于求。不容易分解如果矩阵,解失则分败。

  —将矩阵分解成Q和R2- QR矩阵分解—,为方阵其中Q,(不需要平方)R为上三角矩阵。征系统分用于特析!

  —这是机器学习中最常用的分解3- Cholesky分解—。回归的最小二用于计算线性乘。

  像识别、推荐等领域矩阵分解可用于图。用的矩阵通常是稀疏的在这种类型的问题中使,对某些电影进行评分因为一个用户可能只。有多种应用矩阵分解,降维的更多信息如降维(要了解,咒)、潜值分解请参阅维度诅等。

  1中在表,户和6个电影我们有5个用,以评价任何电影其中每个用户可。所看到的正如我们,or和Rocky 评分Henry没有为Th,为Avatar评分Jerry 也没有。界的情况下在现实世,以是高度稀疏的矩这些类型的矩阵可阵!

  解找到用户评分的目标作为我们通过矩阵分,此之前但在,值分解(SVD)我们必须经历奇异,和SVD彼此相因为矩阵分解关?

  了解什么是K和转置(K)在深入SVD之前让我们先。表1)上执行PCA如果我们在矩阵K(,有的用户矢量我们得到所。后之,量放入矩阵U的列中我们可以将这些向,K)上执行PCA如果我们在转置(,矩阵M的列的电影向量则我们获得所有成为。

  此因,使用SVD我们可以,K)上分别执行PCA而不是在K和转置(,hot中对K和转置(K)执行PCA而SVD可以在 single s。矩阵U、矩阵M和对角矩阵SVD基本上将K分解为!

  项目i定义的评分令r是为用户u和,户的M行p是用,的转置列(U)q是特定项目i。式将变成所以等?

  K是密集矩阵值注 - 如果,置(K)的特征向量则M将是K *转,特征向量(K)* KU的相似值将是转置的,阵是稀疏矩阵但我们的矩,种方法计算U和我们不能通过这M?

  找到矩阵M和U我们的任务是。值初始化为M和U一种方法是将随机,近K时当值接,阵K进行比较将其与原始矩,止这个过程而不是停,M的值最小化否则将U和,们接近K直到它。程称为梯度下这类优化的过降?

  任务是最小化误差因为我们的主要,们必须去哪个方向即我们必须找到我,必须区分它因为我们,方程将变因此新为。

  中其,常是学习速率alpha通,ha可以超过最小值因为更高的alp,值非常小所以其。

  训练数据相匹配时当我们将模型与,一些决策行它会返回。条决策线基于这,分数据的分我们可以区布?

  线性拟合的地方第一图是模型,拟合的是多项式度而在第二图中模型。一看乍,一图要好得多第二图比第,上有99%的准确率因为它在训练数据,且测试数据的准确率达到50%但是如果我们引入测试数据并,类型的问题叫做过拟合那么该怎么办呢?这种,这个问题为了解决,正则化的概念我们引入了。

  机器学习中很常见由于过拟合问题在,法可以用来去除过拟所以有两种正则化方合。

  线性数量级作为惩罚项L1正则化以系数的,加系数的平方数量级(如上所述)在L2中为损失函数/误差函数增。稀疏矩阵L1返回,不返回而L2。阵的特征选择中很有效L1正则化在稀疏矩。

  数据集中在推荐,的可能性也很大数据过度拟合。度拟合问题为了消除过,正则化(因为矩阵已经是稀疏的我们可以在损失函数中加入L2,L1正则化)这里不需要,失函数方程为因此新的损。

  样同,MSE上找到梯度我们可以在更新的,方法得到更新的点并按照上面讨论的。

  虑的一件重要的事情是在上面的情形中需要考,Q是非负的矩阵P和,型也被称为非负分解因此这些分解的类。取非负向量集的信息由于非负分解自动提。文本挖掘、高维数据分析等领NMF广泛应用于图像处理、域!

上一篇:专访DA相关新闻IS程超:以立异协同矩阵制造平安不变公链平台_181
下一篇:湖北出土有“芈”字 猜测仆人身份与芈月类似(组图相关新闻