自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

转载 BPR

模型:从user-item中提取item-item矩阵?表示无签到数据,有两种情况,第一种可能本身就是negative value,用户对item不感兴趣,第二种是缺失值,发生了浏览或者购买行为但是丢失了表示用户 u u u相对于item j j j更喜欢item i i i。BPR推荐系统会考虑positive value和negative value,也就是所有item都会被个性化ranking,即使用户对某个item缺失值这个item也能够被ranking,而不是仅仅用negative va

2020-10-11 15:58:08 145

转载 GCN(通过https://www.bilibili.com/video/BV1QK4y1t75Q?p=1&share_medium=android&share_plat=android&share)

图的两个基本特性:一是每个节点都有自己的特征信息。二是图谱中的每个节点还具有结构信息。在图数据里面,我们要同时考虑到节点的特征信息以及结构信息,如果靠手工规则来提取,必将失去很多隐蔽和复杂的模式,那么有没有一种方法能自动化地同时学到图的特征信息与结构信息呢?——图卷积神经网络--------一种能对图数据进行深度学习的方法。一、(1)GCN模型同样具备深度学习的三种性质:1、层级结构(特征一层一层抽取,一层比一层更抽象,更高级);2、非线性变换 (增加模型的表达能力);3、端对端训练(不需

2020-09-26 22:46:36 3258

原创 神经网络(简单)

\1. 简单的神经网络结构有哪些轴突,树突,细胞体,突触输入,隐藏层,输出2,激活函数有什么作用?(激活函数使线性的结果非线性化。)激活函数在神经网络中的功能即通过对加权的输入进行非线性组合产生非线性决策边界\2. 激活函数的种类有哪些?有什么作用?兴奋型和抑制性前面每一层输入经过线性变换wx+b后还用到了sigmoid函数,在神经网络的结构中被称为传递函数或者激活函数。除了sigmoid,还有tanh、relu等别的激活函数。激活函数使线性的结果非线性化。4.偏置项是什么?有什么作用是

2020-07-31 22:50:43 198

转载 协同过滤

1,什么是协同过滤推荐系统应用数据分析技术,找出用户最可能喜欢的东西推荐给用户,现在很多电子商务网站都应用这个算法。2,协同过滤的种类协同过滤推荐分为三种类型。第一种是基于用户(user-based)的协同过滤,第二种是基于项目(item-based)的协同过滤,第三种是基于模型(model based)的协同过滤。3.协同过滤的相似度计算有哪几种\1. 基于余弦(Cosine-based)的相似度计算,通过计算两个向量之间的夹角余弦值来计算物品之间的相似性,公式如下:[外链图片转存失败,源站可

2020-07-25 21:15:55 1126

转载 矩阵分解

1.什么是矩阵分解?矩阵分解就是预测出评分矩阵中的缺失值,然后根据预测值以某种方式向用户推荐。常见的矩阵分解方法有基本矩阵分解(basic MF),正则化矩阵分解)(Regularized MF),基于概率的矩阵分解(PMF)等。\2. 矩阵分解的思想以及算法步骤?此处我们只将用户—商品矩阵Rm×nRm×n分解为两个矩阵Pm×kPm×k和Qk×nQk×n,使得满足,Rm×n≈Pm×k×Qk×n=R^m×nRm×n≈Pm×k×Qk×n=R^m×n从而补全那些缺失值,进而为用户推荐那些可能感兴趣的商

2020-07-23 09:04:21 394

转载 k-means

1.什么是监督学习和无监督学习,半监督学习对于"监督学习"(supervised learning),其训练样本是带有标记信息的,并且监督学习的目的是:对带有标记的数据集进行模型学习,从而便于对新的样本进行分类。在“无监督学习”(unsupervised learning)中,训练样本的标记信息是未知的,目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律,为进一步的数据分析提供基础。对于无监督学习,应用最广的便是"聚类"(clustering)。半监督学习 :半监督学习使用大量的未标记数据,以

2020-07-20 21:52:45 263

转载 knn

KNN的原理就是当预测一个新的值x的时候,根据它距离最近的K个点是什么类别来判断x属于哪个类别。看的资料里面都是关于下面这道题如果K=3,绿色圆点的最近的3个邻居是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于红色的三角形一类。如果K=5,绿色圆点的最近的5个邻居是2个红色三角形和3个蓝色的正方形,还是少数从属于多数,基于统计的方法,判定绿色的这个待分类点属于蓝色的正方形一类。然后就是关于距离运算公式,如然后就是步骤:就是找个随便分为几部分,..

2020-07-17 22:48:26 598

转载 线性回归(一元)

线性回归其实就是从一堆训练集中去算出一条线,使数据集到线之间的距离差最小。操作,若是一元直线则设然后求出每组的h(x),然后求每组估计值和真实值差的和得然后求它的最小值(1)得出θ0和θ1,就可以求出这个线性回归式θ0和θ1如何求?loss对θ0偏导=0以及loss对θ1偏导=0若是曲线模型,同上(2)运用梯度下降,构建一个立体图形θ0,θ1为x,y轴,loss为z轴若想简单计算则设为然后求J(θ)对θ0和θ1分别偏导,求出新的θ0和θ1`# -- coding: utf-8 --“”

2020-07-11 19:36:01 189

转载 梯度下降

梯度下降法(gradient descent),又名最速下降法(steepest descent)是求解无约束最优化问题最常用的方法,它是一种迭代方法.1847年由著名的数学家柯西Cauchy给出如果函数为一元函数,梯度就是该函数的导数二元2. 在梯度下降法中,求某函数极大值时,沿着梯度方向走,可以到达极大点;反之,沿着负梯度方向走,则最快地达到极小点。梯度下降法特点:越接近目标值,步长越小,下降速度越慢。相关概念梯度 : 表示某一函数在一点处变化率最快的方向向量(可理解为这点的导数/偏导数).

2020-07-10 19:47:47 368

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除