自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 BPR

BPB模型概念BPR(Bayesian Personalized Ranking)推荐模型是基于贝叶斯后验优化的个性化排序算法。从user-iem矩阵训练出多个矩阵,而且一个矩阵表示一个用户的item偏好情况来获得用对多个item的偏好关系的推荐系统。本身不优化用户对物品的评分,只是借由评分来优化用户对物品的排序。BPR是目前主流的利用基于物品对的协同过滤技术解决OCCF问题的算法之 。BPR的核心是针对两个物品的相对偏好排序进行建模。最终为每个用户计算其对没有过行为物品的偏好排序,从而进行个性化推荐

2020-10-03 19:53:34 1669

原创 图卷积神经网络

卷积网络的简单是实现1.卷积神经网络GCN 是一类非常强大的用于图数据的神经网络架构。事实上,它非常强大,即使是随机初始化的两层 GCN 也可以生成图网络中节点的有用特征表征。下图展示了这种两层 GCN 生成的每个节点的二维表征。请注意,即使没有经过任何训练,这些二维表征也能够保存图中节点的相对邻近性。更形式化地说,图卷积网络(GCN)是一个对图数据进行操作的神经网络。给定图 G = (V, E),GCN 的输入为:1,一个输入维度为 N × F⁰ 的特征矩阵 X,其中 N 是图网络中的节点数而

2020-09-26 22:59:23 1527

原创 矩阵分解

煮个栗子先——矩阵分解的思想可以解决这个问题,其实这种思想可以看作是有监督的机器学习问题(回归问题)。矩阵R可以近似表示为P与Q的乘积:R(n,m)≈ P(n,K)*Q(K,m)矩阵分解的过程中,将原始的评分矩阵分解成两个矩阵和的乘积:矩阵P(n,K)表示n个user和K个特征之间的关系矩阵,这K个特征是一个中间变量,矩阵Q(K,m)的转置是矩阵Q(m,K),矩阵Q(m,K)表示m个item和K个特征之间的关系矩阵,这里的K值是自己控制的,可以使用交叉验证的方法获得最佳的K值。为了得到近似的R(n

2020-07-23 12:14:59 1554

原创 kmeans

1 kmeansK-means聚类算法也称k均值聚类算法,是集简单和经典于一身的基于距离的聚类算法。它采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大。该算法认为类簇是由距离靠近的对象组成的,因此把得到紧凑且独立的簇作为最终目标。2.算法核心思想K-means聚类算法是一种迭代求解的聚类分析算法,其步骤是随机选取K个对象作为初始的聚类中心,然后计算每个对象与各个种子聚类中心之间的距离,把每个对象分配给距离它最近的聚类中心。聚类中心以及分配给它们的对象就代表一个聚类。每分配一个样本

2020-07-22 19:21:16 921

原创 KNN

1.KNN:knn算法( k nearest neighbor也叫K临近算法)分类算法是数据挖掘分类技术中最简单的方法之一。所谓K最近邻,就是k个最近的邻居的意思,说的是每个样本都可以用它最接近的k个邻居来代表。2.KNN三要素:(1)***K 值***的选择会对算法的结果产生重大影响。K值较小意味着只有与输入实例较近的训练实例才会对预测结果起作用,但容易发生过拟合;如果 K 值较大,优点是可以减少学习的估计误差,但缺点是学习的近似误差增大,这时与输入实例较远的训练实例也会对预测起作用,使预测发生错误

2020-07-16 22:27:07 171

原创 梯度下降2

xi梯度下降梯度下降的实现假设一条直线的函数:h(x)=theta0+theta1*x损失函数(上):变形之后(上)求导(上)更新能得到的theta0和theta1(上)xiaoxx(直接上图…end…关机ing)

2020-07-14 10:13:09 91

原创 梯度下降

梯度下降第一节课----梯度下降1.损失函数:2.eta的取值问题,若eta太大,可能跳过最优解而找不到;eta太小,会迭代很多次才能找到最优解;若损失函数的值不断变大可能是步长eta太大,导致算法不收敛。3.梯度下降的基本原理:4.算法实现import numpy as npimport matplotlib.pyplot as plt x=np.linspace(-1,6,141)y=(x-2.5)**2-1#每点梯度def dj(theta): return 2*(th

2020-07-13 12:54:42 191

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除