机器学习
文章平均质量分 93
机器学习
Vuko-wxh
道阻且长 行则将至。
展开
-
Caffe-01-入门环境配置
学习内容本文主要学习在linux操作系统下的caffe框架的搭建和基本配置。caffe介绍Caffe 完全开源,并且在有多个活跃社区沟通解答问题,同时提供了一个用于训练、测试等完整工具包,可以帮助使用者快速上手。此外 Caffe还具有以下特点: 模块性:Caffe 以模块化原则设计,实现了对新的数据格式,网络层和损失函数轻松扩展。 表示和实现分离:Caffe已经用谷歌的 Protocl Buffer定义模型文件。使用特殊的文本文件 prototxt 表示网络结构,以有向非循环图形式的网络构建。原创 2021-05-28 01:47:51 · 7272 阅读 · 12 评论 -
Caffe-02-网络配置与solver超参数配置详解
学习内容本文对caffe 相关配置网络结构的各层代码进行了详细的介绍。开发环境ubantu 16.04、VMwave网络结构相关知识一般来说,对于卷积神经网络,涉及到神经元、卷积、池化、激活函数等相关概念。这里里简单的进行说明介绍。神经元: 类似于大脑的神经网络,各个神经元之间连接方式组成不同的网络结构。如下图所示。在日常生活中,当我们要思考或者回想一些之前记忆过的内容时,脑子里会出现与之相关的信息,这些在脑子里预留的和该事件有关的信息可以说对于的是在神经网络中的权重(weights)和偏置原创 2021-05-29 22:35:18 · 404 阅读 · 2 评论 -
TensorFlow中CNN的两种padding方式“SAME”和“VALID”
在用tensorflow写CNN的时候,调用卷积核api的时候,会有填padding方式的参数,找到源码中的函数定义如下(max pooling也是一样):def conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None)源码中对于padd...转载 2019-10-15 17:36:17 · 896 阅读 · 0 评论 -
神经网络训练loss不下降原因以及解决办法
train loss与test loss结果分析train loss 不断下降,test loss不断下降,说明网络仍在学习; 在训练过程中loss可能会出现几次震荡现象,但是整体有上升趋势就说明网络还在学习,可以继续训练。train loss 不断下降,test loss趋于不变,说明网络过拟合过拟合 最直观的表现就是training accurac...原创 2019-10-11 22:46:20 · 6523 阅读 · 4 评论 -
Python-Tensorflow-循环神经网络
循环神经网络(Recurrent Neural Network,RNN)很多实时情况都能通过时间序列模型来描述。例如,如果你想写一个文档,单词的顺序很重要,当前的单词肯定取决于以前的单词。如果把注意力放在文字写作上...一个单词中的下一个字符取决于之前的字符(例如,The quick brown f...,下一个字母是 o 的概率很高),如下图所示。关键思想是在给定上下文的情况下产生下一个字符的...原创 2019-09-03 18:07:48 · 945 阅读 · 0 评论 -
机器学习-从神经元到深度学习
本文为 AI 研习社编译的技术博客,原标题 :Understanding Neural Networks. From neuron to RNN, CNN, and Deep Learning作者 |vibhor nigam翻译 | gezp123、Dylan的琴 校对 | 邓普斯•杰弗 审核 | 酱番梨 整理 | 立鱼王原文链接:...原创 2019-09-03 17:40:57 · 2467 阅读 · 1 评论 -
python-手写数字识别改进+TensorBoard(TensorFlow可视化)
手写数字识别的改进:将识别准确率提高到98%以上:import tensorflow as tfimport numpy as npfrom tensorflow.examples.tutorials.mnist import input_data#读取mnist数据集 如果没有则会下载mnist = input_data.read_data_sets("MNIST_data/", ...原创 2019-07-16 16:41:57 · 624 阅读 · 0 评论 -
TensorFlow-CNN卷积神经网络
一、传统神经网络存在的问题(1)权值太多,计算量太大。(2)权值太多,需要大量样本进行训练。(容易出现过拟合或者欠拟合)二、卷积神经网络CNNCNN通过感受野和权值共享减少了神经网络需要训练的参数的个数。如下图所示:左图为传统神经网络,局部感受野:后面的一个神经元只连接到前面的图片的某一个部分。权值共享:各个局部感受野的大小是相同的且值是一样的。(黑,红,绿,蓝)...原创 2019-07-18 18:52:04 · 362 阅读 · 0 评论 -
机器学习-基本概念-线型回归
转载谷歌教程https://developers.google.cn/machine-learning/crash-course/descending-into-ml/linear-regression人们早就知晓,相比凉爽的天气,蟋蟀在较为炎热的天气里鸣叫更为频繁。数十年来,专业和业余昆虫学者已将每分钟的鸣叫声和温度方面的数据编入目录。Ruth 阿姨将她喜爱的蟋蟀数据库作为生日礼物送给您...原创 2019-07-15 21:44:10 · 251 阅读 · 0 评论 -
机器学习:基本概念-标签、特征、样本、模型、回归与分类
什么是(监督式)机器学习?简单来说,它的定义如下:机器学习系统通过学习如何组合输入信息来对从未见过的数据做出有用的预测。下面我们来了解一下机器学习的基本术语。标签标签是我们要预测的事物,即简单线性回归中的y变量。标签可以是小麦未来的价格、图片中显示的动物品种、音频剪辑的含义或任何事物。特征特征是输入变量,即简单线性回归中的x变量。简单的机器学习项目可能会使用单个特征,...转载 2019-07-15 21:39:38 · 52863 阅读 · 6 评论 -
Python-Tensorflow-优化器
Optimizertensorflow中一共有如下几种optimizer:tf.train.GradientDescentOptimizer:梯度下降法tf.train.AdadeltaOptimizertf.train.AdagradOptimizertf.train.AdagradDAOptimizertf.train.MomentumOptimizertf.train.Adam...原创 2019-07-15 21:34:16 · 1251 阅读 · 0 评论 -
Python-Tensorflow-过拟合优化、dropout
过拟合及优化过拟合意味着,曲线虽然经过了所有的样本点,但是对于新的样本点,过拟合曲线完全不经过该新的样本点,且相差很大。对于正确拟合的情况,新的样本点会落在正确拟合的曲线上。过拟合的出现原因:数据量太小,网络过于复杂防止过拟合的方法:(1)增加数据集(2)正则化方法:在代价函数后加一个正则项。C0为之前的代价函数,如二次代价函数等。lamda为系数,用于调节...原创 2019-07-15 20:56:58 · 296 阅读 · 0 评论 -
Python-Tensorflow-二次代价函数、交叉熵、对数似然代价函数、交叉熵应用
一、二次代价函数y代表实际值,其实就是label。y-a即误差,误差的平方和除以样本数。第二个公式是表示只有一个样本时的代价函数。σ()是激活函数,输出前需要经过一个激活函数。W是权值,X是上一层的信号值,b是偏置值,最终得到z,z是信号的总和。第一个式子:对w权值求偏导;(复合函数求偏导)第二个式子:对b偏置值求偏导。其中,z表示神经元的输入,sigma表示激活...原创 2019-07-15 20:14:35 · 909 阅读 · 0 评论 -
Python-Tensorflow-MNIST手写识别
下载下来的数据集被分成两部分:60000行的训练数据集(mnist.train)和10000行的测试数据集(mnist.test)每一张图片包含28*28个像素,我们把这一个数组展开成一个向量,长度是28*28=784。因此在MNIST训练数据集中mnist.train.images 是一个形状为 [60000, 784] 的张量,第一个维度数字用来索引图片,第二个维度数字用来索引每张图...原创 2019-07-14 21:12:53 · 241 阅读 · 0 评论 -
Python-Tensorflow基础(三)-线性回归与非线性回归示例
线性回归:首先还是先贴上代码:import tensorflow as tfimport numpy as np#可以看做为样本#随机生成100个点x_data =np.random.rand(100)y_data =x_data*0.1+ 0.2#构造一个线性模型b = tf.Variable(1.)k = tf.Variable(0.)y = k *x_dat...原创 2019-07-14 18:13:08 · 973 阅读 · 0 评论 -
Python-Tensorflow基础(二)变量 Fetch Feed 使用
变量:import tensorflow as tf#创建一个常量OP和变量opv = tf.Variable([1,2])a = tf.constant([3,3])#增加一个加法 减法opsub = tf.subtract(v,a)add = tf.add(v,sub)#在TensorFlow使用变量要进行初始化操作init = tf.global_variabl...原创 2019-07-14 17:30:47 · 322 阅读 · 0 评论 -
Python-Tensorflow基础(一)-创建图,创建会话
使用图(graphs)来表示计算任务在称为会话(session)的上下文(context)中执行图使用tensor表示数据通过变量(variable)维护状态使用feed和fetch可以为任意的操作赋值或者从中获取数据 Tensorflow是一个编程系统,使用图(graphs)来表示计算任务,图(graphs)中的节点称之为op(operation),一个op获得0个或多个...原创 2019-07-14 17:11:59 · 420 阅读 · 0 评论 -
Python-MNIST机器学习入门
在搭建好TensorFlow的环境后可以进行mnist机器学习的入门学习 首先我们先熟悉下mnist的内容:mnist数据集是手写的图片和对应的标签组成的,下面结合代码熟悉mnist内部的东西from tensorflow.examples.tutorials.mnist import input_data#读取mnist数据集 如果没有则会下载mnist = input_dat...原创 2019-07-13 17:30:22 · 790 阅读 · 0 评论