机器学习
墨子哲
感兴趣方向WEB架构,大数据,人工智能
展开
-
机器学习实战 算法总结
K-近邻算法优点精度高、对异常值不敏感、无数据输入假定缺点计算复杂度高、空间复杂度高适用范围数值型和标称型决策树优点计算复杂度不高,输出结果易于理解,对中间值的缺失不敏感,可以处理不相关特征数据缺点可能会产生过度匹配的问题适用范围数值型和标称型朴素贝叶斯优点在数据较少的情转载 2017-11-04 23:49:18 · 299 阅读 · 0 评论 -
tensorflow IOError: [Errno socket error] [Errno 101] Network is unreachable
tensorflow read_data_sets 下载mnist数据报错[Errno socket error] [Errno 101] Network is unreachable解决方法:手工下载数据包,放入temp目录,read_data_sets 会先判断本地是否存在数据包。http://yann.lecun.com/exdb/mnist/原创 2017-12-29 12:53:51 · 9328 阅读 · 1 评论 -
TF-卷积函数 tf.nn.conv2d 介绍
tf.nn.conv2d是TensorFlow里面实现卷积的函数,参考文档对它的介绍并不是很详细,实际上这是搭建卷积神经网络比较核心的一个方法,非常重要tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)除去name参数用以指定该操作的name,与方法有关的一共五个参数:第一个参数input:...原创 2018-03-06 14:33:47 · 211 阅读 · 0 评论 -
多通道(比如RGB三通道)卷积过程
今天一个同学问 卷积过程好像是对 一个通道的图像进行卷积, 比如10个卷积核,得到10个feature map, 那么输入图像为RGB三个通道呢,输出就为 30个feature map 吗, 答案肯定不是的, 输出的个数依然是 卷积核的个数。 可以查看常用模型,比如lenet 手写体,Alex imagenet 模型, 每一层输出feature map 个数 就是该层卷积核的个数。1、 一通道单个...转载 2018-03-06 14:37:41 · 5939 阅读 · 0 评论 -
多通道卷积计算
对于单通道图像,若利用10个卷积核进行卷积计算,可以得到10个特征图;若输入为多通道图像,则输出特征图的个数依然是卷积核的个数(10个)。 1.单通道多个卷积核卷积计算 一个卷积核得到的特征提取是不充分的,我们可以添加多个卷积核,比如32个卷积核,从而可以学习32种特征。2.多通道多个卷积核卷积计算 图片:假设图片的宽度为width:W,高度为height:H,图片的通道数为D,一般目前都用RGB...转载 2018-03-06 14:40:07 · 914 阅读 · 0 评论 -
一文读懂卷积神经网络CNN
转自:http://dataunion.org/11692.html 作者:张雨石自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此博文,以其与人交流,互有增益。正文之前,先说几点自己对于CNN的感触。先明确一点就是...转载 2018-03-06 15:18:47 · 613 阅读 · 0 评论 -
卷积神经网络——输入层、卷积层、激活函数、池化层、全连接层
卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT(输入层)-CONV(卷积层)-RELU(激活函数)-POOL(池化层)-FC(全连接层)卷积层用它来进行特征提取,如下: 输入图像是32*32*3,3是它的深度(即R、G、B),卷积层是一个5*5*3的filter(感受野),这里注意:感受野的深度必须和输入图像的深度相同。通过一个filter与输入图像的卷积可以...转载 2018-03-06 15:39:26 · 22602 阅读 · 0 评论 -
全连接网络 VS 卷积网络
全连接神经网络之所以不太适合图像识别任务,主要有以下几个方面的问题:参数数量太多 考虑一个输入1000*1000像素的图片(一百万像素,现在已经不能算大图了),输入层有1000*1000=100万节点。假设第一个隐藏层有100个节点(这个数量并不多),那么仅这一层就有(1000*1000+1)*100=1亿参数,这实在是太多了!我们看到图像只扩大一点,参数数量就会多很多,因此它的扩展性很差。没有利...转载 2018-03-06 17:18:22 · 6965 阅读 · 0 评论