AI—learning
文章平均质量分 51
AI学习知识总结
〆bird in the pool✘✘
这个作者很懒,什么都没留下…
展开
-
基于物品的协同过滤推荐系统(itemCF: ItemCollaborationFilter)
概念: 基于物品的协同过滤,是通过用户对不同物品的评分来预测物品之间的相似度,然后基于物品之间的相似度给用户做出推荐。 temCF算法的额核心思想是,给用户推荐那些和他们之前喜欢的物品相似的物品而UserCF的算法核心是向用户推荐和他们有相同兴趣爱好的用户喜欢的用品 我们这里暂时只介绍基于物品的协同过滤首先我们举一个简单的例子,如果用户A曾经购买过物品a,itemCF算法会向用户A...原创 2019-07-28 23:33:26 · 759 阅读 · 0 评论 -
协同过滤相似度计算方法--欧几里德相似度,皮尔逊相似度,余弦相似度
一,欧几里德相似度(Euclidean Distance)欧几里德距离假设想,x,y是n维空间的两点,他们之间欧几里德的距离公式如下:d(x,y)=(xi−yi)2 d(x,y) = \sqrt{(x_i-y_i)^2} d(x,y)=(xi−yi)2我们可以看出当n = 2时,欧几里德距离就是平面上两点之间的距离欧几里德相似度计算公式如下:11+d(x,y) {\frac {\...原创 2019-07-25 10:45:25 · 2789 阅读 · 0 评论 -
基于用户的协同过滤推荐算法(User_CF)
前言协同过滤推荐算法是诞生最早,并且较为著名的推荐算法。主要的功能是预测和推荐。协同过滤推荐系统在我们的日常生活之中无处不在,例如,在电子商城购物,系统会根据用户的记录或者其他的信息来推荐相应的产品给客户。协同过滤算法通过对用户历史行为数据的挖掘发现用户的偏好,基于不同的偏好对用户进行群组划分并推荐品味相似的商品。协同过滤推荐算法分为两类,分别是基于用户的协同过滤算法(user-b...原创 2019-07-27 19:49:24 · 2329 阅读 · 0 评论 -
CNN卷积神经网络(学习更新中)
卷积神经网络(Convolutional Neural Network,CNN)卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。目前, CNN 已经成为众多科学领域的研究热点之一, 特别是在模式分类领域, 由于该网络避免了对图像的复杂前期预处理, 可以直接输入原始图像, 因而得到了更为广泛的应用. 可应用于图像分类, 目标识别,...原创 2019-07-22 20:00:40 · 221 阅读 · 0 评论 -
loss(损失函数)在训练集(train loss)和测试集(test loss)上出现的问题总结
在机器学习的过程中,我们在模型建立时,在实际测试集和训练集上误差函数可能会出现变化不一致情况。下面我简单的总结一下在程序运行过程中当train loss不断下降,test loss也不断下降:网络仍在学习,让他继续学;train loss 不断下降,test loss趋于不变:说明网络过拟合;train loss 趋于不变,test loss不断下降:不用想数据集250%有问题;...原创 2019-07-22 16:43:09 · 22558 阅读 · 5 评论 -
监督学习,无监督学习和半监督学习
最近在学习的过程中,我常常会遇到监督学习和非监督学习,因此对这两个概念进行了一下总结,另外又补充了一下半监督学习的概念机器学习的常用方法,主要分为有监督学习(supervised learning)和无监督学习(unsupervised learning)。监督学习,就是我们常说的分类,通过已有的训练样本(即已知数据以及其对应的输出)去训练得到一个最优模型,再利用这个最优模型将所有的输入映射...原创 2019-07-22 15:27:20 · 451 阅读 · 0 评论 -
局部最优问题
什么是局部最优百科解释:局部最优,是指对于一个问题的解在一定范围或区域内最优,或者说解决问题或达成目标的手段在一定范围或限制内最优。我们先举一个简单的例子假如我们用梯度下降找上图中的最小值,实际解应该是d点,但由于图像波动幅度很大,在程序运行结束以后,我没呢求得的值是a,b,c中的一个,虽然a,b,c是也是图像的峰值,但并不是我们想要的最小值,这就是局部最优。相关链接https:/...原创 2019-07-20 11:55:06 · 755 阅读 · 0 评论 -
BP神经网络-神经网络前向传播和反向(BP)传播及其python实现
前言BP神经网络,可以理解为使用“BP算法进行训练”的“多层感知器模型”多层感知器(MLP)就是指得结构上多层的感知器模型递接连成的前向型网络。BP就是指得反向传播算法MLP这个术语属于历史遗留的产物,现在我们一般就说神经网络,而感知感知器是生物神经细胞的简单抽象,我们可以理解为神经网络中的一个神经元BP神经网络(BackPropagation Neuron NetWok...原创 2019-07-20 11:05:33 · 5901 阅读 · 0 评论 -
常用激活函数sigmoid,Tanh,ReLU
什么是激励函数激励函数一般用于神经网络的层与层之间,上一层的输出通过激励函数的转换之后输入到下一层中。神经网络模型非线性的,如果没有激励函数,那么每一层实际上就相等于矩阵乘法。而将过非线性的激励函数的作用,可以使神经网络拥有更过的表现力。下面我们具体的描述这一问题如下,加入x1,x2是神经网络输入层节点,net01是隐含层的一个节点,可以知道的是neto1 = x1*w1+x2*w...原创 2019-07-19 19:47:29 · 2798 阅读 · 0 评论 -
推荐系统之矩阵分解(MF)没废话,有代码
前言本文章,适合零基础学习MF(个人认为)数据集很小,只是简单但详细的讲解了矩阵分解,并给出了一个简单的代码推荐系统中最为主流与经典的技术之一是协同过滤技术(Collaborative Filtering),它是基于这样的假设:用户如果在过去对某些项目产生过兴趣,那么将来他很可能依然对其保持热忱。其中协同过滤技术又可根据是否采用了机器学习思想建模的不同划分为基于内存的协同过滤(Memo...原创 2019-07-18 22:34:23 · 3672 阅读 · 1 评论 -
正则化防止过拟合
过拟合过拟合(over-fitting)就是所建立的机器学习模型或者是深度下降学习模型在训练样本中表现得过于优越,导致在验证数据集以及测试数据集中表现不佳。通俗点讲就是训练出来的模型在训练集上表现很好,但那是在测试集上表现较差的一种现象。比如是识别一只狗的模型,我需要对这个模型进行训练。但是很赶巧所给训练样本中的所有训练图片都是哈士奇,那么经过多次迭代训练之后,模型训练好了,并且在训练集中表现...原创 2019-07-18 10:54:39 · 503 阅读 · 0 评论 -
KNN(k-nearest neighbor)k-最近邻矩阵
前言“物以类聚,人以群分”,同类东西常常放在一起,志同道合的人也常常走在一起。knn算法就是这种思想,要想知道一个东西的类别,可以通过它周围的事物来反映。knn算法是一种分类算法,基于实例的学习(instance-based learning)和懒惰学习(lazy learning)。概述K最近邻(kNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一...原创 2019-05-27 00:48:58 · 4337 阅读 · 1 评论