![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Nie_Xun
这个作者很懒,什么都没留下…
展开
-
Aprior算法
应用用于挖掘频繁项集及关联规则 可用于推荐系统, 通过不同顾客购物车的商品,分析顾客的习惯,从而对不同顾客进行商品推荐等概念通俗理解项集及K项集 将商品作为项; 每个顾客的购物车的商品集就是一个项集; 若顾客购物车有k项商品,则称这个项集为k项集。支持度计数 用来表示项集出现的频繁次数; 整个统计数据中,顾客购物车的商品集相同的次数,即多少顾客的购物车的商品集相同...原创 2018-08-15 19:13:49 · 468 阅读 · 0 评论 -
Googlenet-inception参考资料
Googlenet-inception参考资料原本打算写一系列呢,考虑时间成本,以及博友的优秀的实力。 直接搬吧 CNN卷积神经网络_ GoogLeNet 之 Inception(V1-V4) 从Inception v1,v2,v3,v4,RexNeXt到Xception再到MobileNets,ShuffleNet,MobileNetV2 深度学习-Inception层详解 神经网...原创 2018-09-14 19:45:27 · 182 阅读 · 0 评论 -
Resnet网络介绍及Tensorflow实现
Resnet网络介绍及Tensorflow实现网络背景以下内容原文参考博客 微软研究院的Kaiming He等4名华人提出,通过使用Residual Unit成功训练152层深的神经网络,在ILSVRC 2015比赛中获得了冠军,取得3.57%的top-5错误率,同时参数量却比VGGNet低,效果非常突出。 ResNet允许原始输入信息直接传输到后面的层中。ResNet最初的灵感...原创 2018-09-14 15:30:15 · 768 阅读 · 0 评论 -
VGGnet介绍及Tensorflow实现
VGGnet介绍及Tensorflow实现VGGnet介绍背景 ILSVRC 2014的第二名是Karen Simonyan和 Andrew Zisserman实现的卷积神经网络,现在称其为VGGNet。它主要的贡献是展示出网络的深度是算法优良性能的关键部分。 他们最好的网络包含了16个卷积/全连接层。网络的结构非常一致,从头到尾全部使用的是3x3的卷积和2x2的汇聚。他们的预训...原创 2018-09-13 19:49:05 · 921 阅读 · 0 评论 -
AlexNet 介绍及Tensorflow实现源码
AlexNet 介绍及Tensorflow实现源码AlexNet是神经网络之父Hinton的学生Alex Krizhevsky开发完成,它总共有8层,其中有5个卷积层,3个全链层。网络结构介绍介绍内容参考链接第一个卷积层输入的图片大小为:224*224*3第一个卷积层为:11*11*96即尺寸为11*11,有96个卷积核,步长为4,卷积层后跟ReLU,因此输出的尺寸为 ...原创 2018-09-13 17:32:32 · 1549 阅读 · 0 评论 -
Lenet介绍-使用Tensorflow实现
Lenet介绍-使用Tensorflow实现模型介绍LeNet5诞生于1994年,由Yann LeCun提出,充分考虑图像的相关性。当时结构的特点如下: 1)每个卷积层包含三个部分:卷积(Conv)、池化(ave-pooling)、非线性激活函数(sigmoid) 2)MLP作为最终的分类器 3)层与层之间稀疏连接减少计算复杂度 网络结构介绍:Input Layer:1...原创 2018-09-13 15:08:21 · 358 阅读 · 0 评论 -
Tensorflow实战学习-相关书的资源库
《图解tensorflow 源码》: 博客地址:http://www.cnblogs.com/yao62995/p/5773578.html github地址:https://github.com/yao62995/tensorflow《Tensorflow实战Google深度学习框架》 github地址:https://github.com/cookeem/TensorFlow_le...原创 2018-09-08 15:33:06 · 385 阅读 · 0 评论 -
K-means & K-SVD原理
应用场景K-means算法多用于聚类 K-SVD算法则可用于压缩,编码,聚类等功能稀疏表示用较少的基本信号的线性组合来表达大部分或者全部的原始信号。 每个矩阵的列向量可看成一个信号,一个矩阵则是信号的集合。 其中, 基本信号可成为原子信号。设矩阵Y为样本集,由N个样本组成,每个样本由n个特征表示,即Y的尺寸为(n * N)。 所谓稀疏表示,就是找到一组向量基(一组原子信号)...原创 2018-08-22 19:57:31 · 5654 阅读 · 4 评论 -
理解贝叶斯
理解贝叶斯贝叶斯公式如下P(z∣X)=P(X∣z)⋅P(z)P(X)P(z|X)=\frac {P(X|z)\cdot P(z)}{P(X)}P(z∣X)=P(X)P(X∣z)⋅P(z)这里X表示一系列事件结果,或样本集。z表示分布或者表示分布的参数。P(z)P(z)P(z) — 先验概率(prior),即分布z发生的概率P(X∣z)P(X|z)P(X∣z) — 似然(likeliho...原创 2018-10-10 11:38:04 · 478 阅读 · 0 评论