![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
笔记梳理
文章平均质量分 92
贪玩的马同学
这个作者很懒,什么都没留下…
展开
-
CNN卷积网络神经网络----笔记梳理
CNN卷积网络神经网络----笔记梳理前面我们说了神经网络,在了解神经网络之后我们对于人工智能的处理问题的方法和思路一定有了新的认知。我们知道神经网络是由输入层–隐藏层–输出层组层的。这是一个神经元,一群这样的神经元组合在一起就成了我们说的神经网络。下面这个就是典型的三层神经网络。∙\bullet∙输入层(Input layer),众多神经元(Neuron)接受大量非线形输入讯息。输入的讯息称为输入向量。∙\bullet∙输出层(Output layer),讯息在神经元链接中传输、分析、权衡,形原创 2021-07-19 17:51:46 · 409 阅读 · 0 评论 -
神经网络———笔记梳理
神经网络———笔记梳理1,前言:当我们所处理的问题越来越复杂,所涉及到的数据越来越多时,普通的算法已经显得有些捉襟见肘了,任务量也很大。为了满足大家的需要和社会的发展,人们从人类身上找到灵感,把人的神经元模型化,仿照人类神经的学习和工作模式,创建了神经网络,打开了人工智能的新大门。神经网络是一种模拟人脑的神经网络以期能够实现类人工智能的机器学习技术。人脑中的神经网络是一个非常复杂的组织。成人的大脑中估计有1000亿个神经元之多。话不多说,我们直接开始~2,神经元首先,先看看我们的神经元:相关转载 2021-07-14 19:32:29 · 210 阅读 · 0 评论 -
K-means聚类算法原理与实现——笔记梳理
转载于:https://www.toutiao.com/a6690435044869145101/转载于:https://blog.csdn.net/ten_sory/article/details/81016748今天我们学习KNN算法的好兄弟K-means算法又叫作K均值算法。K-means中心思想 :事先确定常数K,常数K意味着最终的聚类类别数。首先随机选定初始点为质心,并通过计算每一个样本与质心之间的相似度(这里为欧式距离),将样本点归到最相似的类中。接着,重新计算每个类的质心(即为类中心)转载 2021-05-16 16:45:46 · 860 阅读 · 0 评论 -
机器学习之KNN(k近邻)笔记梳理
a function that assigns a strictly positive length or size to each vector in a vector space, except for the zero vector. ——Wikipedia原创 2021-05-03 12:53:50 · 415 阅读 · 0 评论 -
推荐系统—协同过滤 笔记整理
一,背景介绍当我们浏览某些购物软件或者刷一些短视频软件时,经常会遇见一些弹窗,去推荐你喜欢的一些东西。这就涉及到我们一会要学习的内容:推荐系统—协同过滤。协同过滤推荐系统在我们的日常生活之中无处不在,例如,在电子商城购物,系统会根据用户的记录或者其他的信息来推荐相应的产品给客户,是一种智能的生活方式。之所以交协同过滤,是因为在实现过滤推荐的时候是根据 其他人的行为来做预测的,基于相似用户的喜好来实现用户的喜好预测。二,⦁ 算法简介2.1 算法概述协同过滤(Collaborative Filteri原创 2021-04-22 22:04:43 · 941 阅读 · 0 评论 -
梯度下降的矩阵分解公式推导与实例分析
梯度下降的矩阵分解公式推导与实例分析当我们了解和学习过梯度下降之后,对于矩阵分解的学习会更直接易懂。矩阵分解就是将一个大的矩阵分解成两个行对应列相等的两个小矩阵,用两个小的矩阵去预测大的矩阵的取值。在这里我们还会用到梯度下降的核心思想,构造损失函数(loss function)。接下来让我们看一些例子和相关理论介绍。一,基于矩阵分解的推荐算法相关理论介绍如图1,是一个用户对物品的评分距图U1,2,3,4,5表示五个用户,D1,2,3,4表示四个不同的物品,表中的数据表示用户对物品的打分 评价。-原创 2021-04-18 19:23:36 · 1440 阅读 · 1 评论