算法实现
文章平均质量分 72
算法实现
YJ语
这个作者很懒,什么都没留下…
展开
-
协同过滤的升级—矩阵分解的简单实现!
对于矩阵分解的内容可以参考:https://blog.csdn.net/The_dream1/article/details/1186139981 对协同过滤的简单回顾还是以之前的例子为例:任务就是根据这个评分矩阵, 猜测Alice对物品5的打分。首先ItemCF的做法, 根据已有的用户打分计算物品之间的相似度, 得到物品的相似度矩阵, 根据这个相似度矩阵, 选择出前K个与物品5最相似的物品, 然后基于Alice对这K个物品的得分, 猜测Alice对物品5的得分, 有一个加权的计算公式。Us原创 2021-07-09 21:03:34 · 214 阅读 · 0 评论 -
userCF、ItemCF的简单实现
1 前言仔细了解的可以参考:https://blog.csdn.net/The_dream1/article/details/118607825这里简单说一下:基于userCF的协同过滤:当一个用户A需要个性化推荐的时候, 我们可以先找到和他有相似兴趣的其他用户, 然后把那些用户喜欢的, 而用户A没有听说过的物品推荐给A。基于ItemCF的协同过滤:ItemCF算法并不利用物品的内容属性计算物品之间的相似度, 主要通过分析用户的行为记录计算物品之间的相似度, 该算法认为, 物品a和物品c具原创 2021-07-09 20:03:45 · 481 阅读 · 0 评论 -
梯度下降 - 举例线性回归
文章目录1 什么是梯度下降?1.1 现实中的梯度下降1.2 微分1.3 梯度1.4 梯度下降算法的数学解释2 梯度下降算法的实例2.1 单变量函数的梯度下降2.2 多变量函数的梯度下降3 梯度下降算法的实现1 什么是梯度下降?1.1 现实中的梯度下降梯度下降法的基本思想可以类比为一个下山的过程——每次朝着当前位置**最陡峭(求导)**的方向的前进,就能到达山底了。1.2 微分看待微分的意义,可以有不同的角度,最常用的两种是:函数图像中,某点的切线的斜率函数的变化率几个微分的例子:原创 2021-05-24 10:55:05 · 2473 阅读 · 0 评论 -
kmeans原理与实现
k means教程0. 引入依赖import numpy as npimport matplotlib.pyplot as plt# 从sklearn中直接生成聚类数据from sklearn.datasets import make_blobs1. 数据加载x, y = make_blobs( n_samples=100, centers=6, random_state=1234, cluster_std=0.6 )plt.figure(figsize=(6,6))plt.scat原创 2021-05-21 20:53:18 · 1097 阅读 · 0 评论 -
knn原理与实现
k近邻算法教程0.引入依赖import numpy as npimport pandas as pd# 这里直接引入sklearn里的数据集,iris鸢尾花from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split # 切分数据集为训练集和测试集from sklearn.metrics import accuracy_score # 计算分类预测的准确率1. 数据原创 2021-05-21 20:51:32 · 102 阅读 · 0 评论 -
线性回归(最小二乘法)
简单线性回归(最小二乘法)0. 引入依赖import numpy as npimport matplotlib.pyplot as plt1. 导入数据(data.csv)points = np.genfromtxt('data.csv', delimiter=',')points[0,0]# 提取points中的两列数据,分别作为x,yx = points[:, 0]y = points[:, 1]# 用plt画出散点图plt.scatter(x, y)plt.show()原创 2021-05-21 20:44:29 · 770 阅读 · 0 评论