人工智能
tkzc_csk
这个作者很懒,什么都没留下…
展开
-
分类与回归区别
分类和回归的区别在于输出变量的类型。定量输出称为回归,或者说是连续变量预测;定性输出称为分类,或者说是离散变量预测。举个例子:预测明天的气温是多少度,这是一个回归任务;预测明天是阴、晴还是雨,就是一个分类任务。参考文章 :https://www.zhihu.com/question/21329754原创 2017-05-19 14:54:57 · 481 阅读 · 0 评论 -
fir、fit_transform、transform的区别
fit原义指的是安装、使适合的意思,其实有点train的含义但是和train不同的是,它并不是一个训练的过程,而是一个适配的过程,过程都是定死的,最后只是得到了一个统一的转换的规则模型。transform:是将数据进行转换,比如数据的归一化和标准化,将测试数据按照训练数据同样的模型进行转换,得到特征向量(比如文中最后一个例子one-hot编码)。fit_transform:可以看做是fit...转载 2018-08-31 09:58:27 · 1408 阅读 · 0 评论 -
前向传播算法(Forward propagation)与反向传播算法(Back propagation)[转]
https://blog.csdn.net/bitcarmanlee/article/details/78819025转载 2018-08-14 17:12:27 · 348 阅读 · 0 评论 -
理解激活函数作用,看这篇文章就够了!
转自微信公众号: 机器学习算法与自然语言处理查阅资料和学习,大家对神经网络中激活函数的作用主要集中下面这个观点: 激活函数作用激活函数是用来加入非线性因素的,解决线性模型所不能解决的问题。下面我分别从这个方面通过例子给出自己的理解~ @lee philip@颜沁睿俩位的回答已经非常好了,我举的例子也是来源于他们,在这里加入了自己的思考,更加详细的说了一下~ 开讲~ 首先我们有这...转载 2018-07-23 21:34:19 · 12278 阅读 · 0 评论 -
Pre-train 与 Fine-tuning
Pre-train的model:就是指之前被训练好的Model, 比如很大很耗时间的model, 你又不想从头training一遍。这时候可以直接download别人训练好的model, 里面保存的都是每一层的parameter配置情况。(Caffe里对于ImageNet的一个model, 我记得是200+M的model大小)。你有了这样的model之后,可以直接拿来做testing, 前提是你的...转载 2018-03-05 20:53:31 · 2130 阅读 · 0 评论 -
深度学习的 helloworld -- 基于 tensorflow 实现的 MNISIT数字手写体识别
1. MNIST 数据集的下载及其介绍下载地址为:点击打开链接内容:下载下来的数据集被分成两部分:60000行的训练数据集(mnist.train)和10000行的测试数据集(mnist.test)。每一个MNIST数据单元有两部分组成:一张包含手写数字的图片和一个对应的标签。训练数据集的图片是 mnist.train.images ,训练数据集的标签是 mnist.train.labels。每一...原创 2018-02-18 23:42:55 · 789 阅读 · 0 评论 -
CS 231 N
网课地址:网易 :CS 231 NB站(2017) : CS 231 N1. 交叉验证:假设把训练集分成五份,四份用于训练,剩余的一份作为验证集,用于找出比较好的超参数(如学习速率,规则化参数,神经网络的结构等等需要人为设定的参数),轮流把其中的一份作为验证集的方法就是交叉验证2. knn 算法中 k 值的选择也是超参数3. a. 曼哈顿距离:对应坐标差值的绝对值的和 b.欧几里德距...原创 2018-02-28 19:16:34 · 230 阅读 · 0 评论 -
tensorflow argmax
tf.argmax(vector, 1):返回的是vector中的最大值的索引号,如果vector是一个向量,那就返回一个值,如果是一个矩阵,那就返回一个向量,这个向量的每一个维度都是相对应矩阵行的最大值元素的索引号。[python] view plain copyimport tensorflow as tf import numpy as np A = [[1,3,4,5,6]] B...转载 2018-02-18 18:18:14 · 170 阅读 · 0 评论 -
tensorflow dropout
import tensorflow as tfa = tf.constant([[1.,2.,3.],[4.,5.,6.],[7.,8.,9.]])a = tf.nn.dropout(a,0.5)b = tf.initialize_all_variables()with tf.Session() as sess: sess.run(b) print(sess.run(a)...原创 2018-02-18 17:43:21 · 194 阅读 · 0 评论 -
图像的通道,深度
图像的深度:图片是由一个个像素点构成的,所有不同颜色的像素点构成了一副完整的图像,计算机存储图片是以二进制来进行的。1 bit : 用一位来存储,那么这个像素点的取值范围就是0或者1,那么我们看来这幅图片要么是黑色要么是白色。4 bit : 取值范围为 0 到 2 的4次方8 bit : 来存储像素点的取值范围为 0 到 2 的8次方以此类推,我们把计算机存储单个像素点所用到的bit为称之为图像的...转载 2018-02-18 14:31:29 · 208 阅读 · 0 评论 -
tensorflow constant 中 shape 参数的理解
tensorflow 新手,代码不整洁不规范请谅解。对 tensorflow 的 constant 方法中的 shape 参数不甚理解,现在搞懂了,在此做一笔记,供人参考,tensorflow 中 reshape 方法的理解也是一样的。1. import tensorflow as tfa = tf.constant([[1.,2.,3.],[4.,5.,6.],[7.,8.,9.]],shap...原创 2018-02-17 19:14:57 · 6999 阅读 · 0 评论 -
深度学习权重更新的误解
我们知道,在深度学习中权重更新是为了使得 Loss Fuction 变小,权重微量的增加或者减小都会对 Loss Fuction 造成一定的影响。为了使得 Loss Fuction 变小,那么就需要改变权重的值使得 Loss Fuction 朝着减小的方向进行。权重是这样更新的:前权重的值 - 学习率 × df/dw ,df/dw 即 Loss Fuction 对该权重的偏导,可正可负。所以,...原创 2018-03-07 14:54:23 · 2766 阅读 · 0 评论 -
keras 预训练模型在windows下的存放位置
由于网络的原因(国内访问github很慢),让程序自己去下载keras预训练模型(vgg16模型大概150多M)是不可取的。一般的做法是用其他办法(百度云)把模型下载好后放入事先规定好的位置,然后让程序去去读取。问题来了,模型应该放在哪里????这个破问题搞了我一天。。。...原创 2018-09-01 15:41:59 · 1619 阅读 · 0 评论