![](https://img-blog.csdnimg.cn/a3a82c671bbb4fb68148ed98c3db9a97.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器学习基础入门
文章平均质量分 86
主要介绍:梯度下降及线性回归,K最近邻分类算法(KNN),KNN算法实现鸢尾花数据集,K-means算法,基于矩阵分解的推荐算法,协同过滤算法,神经网络,卷积神经网络,循环神经网络
jingjing~
要资源,私信我
展开
-
POLY2-FM-FFM笔记
POLY2-FM-FFM笔记,详细介绍了从POLY2到FM再到FFM的过程。原创 2023-11-22 21:56:50 · 161 阅读 · 0 评论 -
onehot-wordEmbedding-graphEmbedding
1、 One-hot encoding2、Why shouldthere be word embeddings?3、What is word embedding?1. What is an embedding matrix?2. Why do you need to set the number of dimensions3.Advantages compared to one-hot encoding4. What are word2vec and GLove?原创 2023-11-06 21:58:26 · 137 阅读 · 0 评论 -
优化器(凸性、梯度、动量、Adagrad、RMSProp及Adam优化)
优化器(Optimizer)是机器学习和深度学习中的一个重要组件,用于调整模型参数以最小化(或最大化)损失函数。优化器的主要目标是通过更新模型的参数,使损失函数的值最小化。它是训练模型的关键组成部分,帮助模型逐渐收敛到最佳参数配置,以提高模型的性能。1、深度学习模型大多是非凸2、小批量随机梯度下降是最常用的优化算法3、冲量对梯度做平滑4、Adam对梯度做平滑,且对梯度各个维度值做重产整。原创 2023-10-27 09:41:08 · 305 阅读 · 0 评论 -
图卷积神经网络GCN与图神经网络GNN
GCN既可以进行直推式学习也可以进行归纳式学习,而传统的比如基于随机游走的方法、基于矩阵分解的方法、标签传播的只能进行直推式,但是直推式的缺点显而易见,直推式无法泛化到新结点,需要重新采样随机游走序列,优化更新所有节点的嵌入向量。然而归纳式学习可以泛化到新节点,也可进行迁移式学习,如GAT、GIN等图神经网络方法(通过计算图的范式,得到结构上的相似,比如,地理上的远隔)。原创 2023-10-23 09:13:07 · 6527 阅读 · 6 评论 -
onehot-词嵌入-图嵌入
一文搞懂one-hot嵌入到词嵌入(wordvec)再到图嵌入(nodevec)原创 2023-10-22 14:42:02 · 204 阅读 · 0 评论 -
Neural Graph Collaborative Filtering学习笔记
这篇论文的研究背景是在现代推荐系统中,学习用户和物品的向量表示(也称为嵌入)是核心问题。现有的方法通常通过将用户(或物品)的嵌入映射到描述用户(或物品)的预先存在的特征,如ID和属性,来获得用户(或物品)的嵌入。然而,这种方法的固有缺点是没有将用户-物品交互中潜在的协同信号(相似性的评分)编码到嵌入过程中。因此,所得到的嵌入可能不足以捕捉协同过滤效应。为了解决这个问题,论文提出了一种新的推荐框架Neural Graph Collaborative Filtering (NGCF),它将用户-物品交互的双分图原创 2023-09-25 12:22:41 · 95 阅读 · 0 评论 -
BPR原作者代码详细注解及函数图,历时三天完成
BPR原作者代码详细注解及函数流程图,历时三天完成,相关论文笔记可查看我另外两篇博客原创 2023-09-22 11:36:30 · 174 阅读 · 1 评论 -
RecAgent:A Novel Simulation Paradigm for Recommender Systems学习笔记
RecAgent:A Novel Simulation Paradigm for Recommender Systems学习笔记一、研究背景二、相关知识1、RecAgent的可视化界面2、RecAgent的总体框架三、与其它模拟器的区别四、潜在的机会五、总结与展望原创 2023-09-19 10:17:54 · 499 阅读 · 1 评论 -
Neural Collaborative Filtering (NCF)论文学习笔记及代码实现
Neural Collaborative Filtering (NCF)论文学习笔记及代码实现一、研究背景二、相关知识1、GFM(广义矩阵分解)模型:2、One-hot编码3、embedding层4、哈达马积5、MLP(多层感知机)模型:6、激活函数ReLU7、NeuMF模型:三、研究方法1、留白评估法2、数据集划分3、数据集介绍四、实现结果(论文详细结果可看原文)1、Top-K项目推荐五、本人代码运行结果1、GMF2、MLP3、NeuMF原创 2023-07-18 21:44:22 · 1376 阅读 · 2 评论 -
BPR(Bayesian Personalized Ranking)算法(2)
一、剩余BPR算法的优化二、算法流程三、BPR算法的实现代码(python)四、性能指标的补充MAP、MRR、Precision、Recall、F1 score、1-Call和NDCG原创 2023-07-10 15:10:22 · 367 阅读 · 1 评论 -
BPR(Bayesian Personalized Ranking)算法(1)
一、贝叶斯(Bayesian)1.1故事背景1.2一句话解释1.3基本概念1.4概率:1.5世界观的区别:1.6贝叶斯公式1.7先验概率1.8符号1.9朴素贝叶斯二、BPR算法使用背景三、显示反馈与隐式反馈2.1 显式反馈与隐式反馈基本概念2.2 显式反馈与隐式反馈的比较四、定义五、BPR-OPT六、sigmoid函数6.1什么是sigmoid函数6.2什么是梯度消失七、什么是AUC参考文献原创 2023-05-10 11:17:41 · 894 阅读 · 1 评论 -
鸢尾花一元线性回归的进一步完善:1.用到训练集和测试集2.评估指标采用MSE和RMSE,针对三种梯度下降方法进行对比分析。
鸢尾花一元线性回归的进一步完善:1.要用到训练集和测试集2.评估指标采用MSE和RMSE,针对三种梯度下降方法进行对比分析,及代码实现。一、什么是MSE和RMSE二、代码示例总结原创 2023-04-15 13:12:05 · 1273 阅读 · 0 评论 -
基于矩阵分解的推荐算法
一、什么是推荐算法二、学习矩阵分解之前,先了解一下协同过滤2.1 什么是协同过滤2.2 协同过滤存在的问题三、矩阵分解3.1什么是矩阵分解3.2这里主要介绍BasicSVD算法3.3实际应用3.4代码实现四、总结分析矩阵分解的优缺点原创 2023-04-25 10:44:55 · 1486 阅读 · 0 评论 -
过拟合和欠拟合问题(正则项)
欠拟合: 训练集的预测值,与训练集的真实值有不少的误差,称之为欠拟合。过拟合: 训练集的预测值,完全贴合训练集的真实值,称之为过拟合。原创 2023-04-25 10:46:09 · 70 阅读 · 0 评论 -
anaconda中spyder闪退的解决方法
anaconda使用Spyder功能出现了有加载界面,然后闪退的解决方法原创 2023-04-01 15:36:37 · 5571 阅读 · 3 评论 -
鸢尾花数据集使用三种梯度下降MGD、BGD与MBGD
一、鸢尾花数据集是什么?二、使用python获取鸢尾花数据集1.数据集的获取及展示2.数据可视化及获得一元线性回归3.数据集的划分三、鸢尾花数据集使用三种梯度下降MGD、BGD与MBGD四、什么是数据集(测试集,训练集和验证集)原创 2023-04-09 15:16:58 · 651 阅读 · 0 评论 -
梯度下降及一元线性回归[python代码](二)
梯度下降及一元线性回归[python代码](二)AI人工智能入门之梯度下降及一元线性回归(2)一、线性回归是什么?二、线性回归的应用三、线性回归的一般形式四、一元线性回归函数的推导过程五、相关代码(python)梯度下降:关于广告和汽车的一元线性回归:同理关于身高和体重的(原理与上个相同):六、过拟合和欠拟合问题原创 2023-04-07 11:44:14 · 272 阅读 · 0 评论 -
梯度下降及一元线性回归[python代码](一)
AI人工智能入门之梯度下降及一元线性回归{python代码}(1),随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent,可简称GD)是最常采用的方法之一,另一种常用的方法是最小二乘法。梯度下降法是一个最优化算法,常用于机器学习和人工智能当中用来递归性地逼近最小偏差模型。原创 2023-04-05 15:48:05 · 144 阅读 · 1 评论