自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(21)
  • 收藏
  • 关注

原创 常见函数说明

numpy.random.shuffle用途:打乱序列的顺序用法:numpy.random.shuffle([list,iterable]),返回值为None,直接更改列表的顺序样例:np.random.shuffle(参数)->np.random.shuffle([1,2,3])注意:如果参数是二维的数据,则只在第一维度上更改顺序 tensorflow.transpose用...

2018-09-24 11:52:15 2536

转载 向量空间模型(Vector Space Model)的理解

https://www.cnblogs.com/hapjin/p/8687527.html

2018-09-23 13:22:28 1783

原创 tensorflow在训练的时候权重是nan,如何解决

https://blog.csdn.net/zbzb1000/article/details/65626297

2018-09-22 22:06:27 1585

转载 使用numpy生成one_hot

https://blog.csdn.net/zhongranxu/article/details/79332154

2018-09-22 22:05:54 2839

原创 中心化(又叫零均值化)和标准化(又叫归一化)

https://blog.csdn.net/GoodShot/article/details/80373372

2018-09-22 22:04:44 4029

转载 利用卷积神经网络提取特征

https://blog.csdn.net/jnulzl/article/details/51440055https://blog.csdn.net/lcy7289786/article/details/68958662

2018-09-20 22:10:45 23151

转载 L2正则化方法

在机器学习中,无论是分类还是回归,都可能存在由于特征过多而导致的过拟合问题。当然解决的办法有(1)减少特征,留取最重要的特征。(2)惩罚不重要的特征的权重。但是通常情况下,我们不知道应该惩罚哪些特征的权重取值。通过正则化方法可以防止过拟合,提高泛化能力。先来看看L2正则化方法。对于之前梯度下降讲到的损失函数来说,在代价函数后面加上一个正则化项,得到https://www.cnblogs....

2018-09-20 22:06:21 18125

转载 为什么L1稀疏,L2平滑?

L1和L2正则常被用来解决过拟合问题。而L1正则也常被用来进行特征选择,主要原因在于L1正则化会使得较多的参数为0,从而产生稀疏解,将0对应的特征遗弃,进而用来选择特征。  但为什么L1正则会产生稀疏解呢?这里利用公式进行解释。假设只有一个参数为w,损失函数为L(w),分别加上L1正则项和L2正则项后有:假设L(w)在0处的倒数为d0,即则可以推导使用L1正则和L2正则时的导数。引入...

2018-09-20 21:53:31 9475

转载 anaconda

Anaconda与conda区别conda可以理解为一个工具,也是一个可执行命令,其核心功能是包管理与环境管理。包管理与pip的使用类似,环境管理则允许用户方便地安装不同版本的python并可以快速切换。 conda的设计理念——conda将几乎所有的工具、第三方包都当做package对待,甚至包括python和conda自身 Anaconda则是一个打包的集合,里面预装好了conda、某个版本...

2018-09-18 20:48:13 245

原创 shape的各种获取、更改以及设置方式辨析

各种shape获取和shape设置以及更改1. shape获取tensor.get_shape:只有tensor才有这个方法,(相对于op来说的),用于返回该 tensor的维度,返回的是一个数组。不需要在session里面使用。x.get_shape()tensor.shape:用法同tensor.get_shape()类似。如...

2018-09-18 20:35:15 1389

原创 tf里面InteractivateSession()与Session()的区别

sd

2018-09-18 20:01:13 1034 3

原创 使用tensorflow书写逻辑回归

书写中存在的问题 mnist读取训练集 mnist.train.images mnist.train.labels读取训练集的长度 mnist.train.num_examples 函数tf.placeholder() 必须指定数据类型,shape可以不指定,这样就可以使用多种shape了 tf.Variable() 必须给定初始值tf.reduce_m...

2018-09-15 22:04:38 229

原创 tf.name_scope与tf.variable_scope

1.scope是干什么的顾名思义“scope”的意思是“范围”,那么name_scope和variable_scope就是针对name所做的范围定义。典型的 TensorFlow 可以有数以千计的节点,在构建各op的过程中,命名要做到不重复,那么在编写程序的时候就要特别注意,例如“x”、“y”、”W”、”B”甚至“weight”等经常使用的变量/常量命名就很可能会重复,否则就要增加一个字符串来...

2018-09-13 14:35:04 571

原创 记录

https://www.w3cschool.cn/tensorflow_python/tensorflow_python-wxuy2nm6.html to_int64 https://blog.csdn.net/m0_37870649/article/details/80963053 relu详解 https://blog.csdn.net/u013713117/article/details...

2018-09-13 13:19:23 119

原创 tf.Variable()、tf.get_variable()

- tf.Variable()W = tf.Variable(<initial-value>, name=<optional-name>)用于生成一个初始值为initial-value的变量。必须指定初始化值-tf.get_variable()W = tf.get_variabl

2018-09-13 13:16:38 391

原创 what does tf.no_op do and tf.control_dependencies work?

- 控制依赖with tf.control_dependencies([train_step, variables_averages_op]): train_op = tf.no_op(name='train') #train_op does nothin或者train_op = tf.group(train_step, variables_averages_op)贴上st...

2018-09-13 12:31:54 1792

原创 tf.nn.sparse_softmax_cross_entropy_with_logits()与tf.nn.softmax_cross_entropy_with_logits的差别

这两个函数的用法类似sparse_softmax_cross_entropy_with_logits(_sentinel=None, labels=None, logits=None, name=None)唯一的区别是sparse的labels是int类型,而非sparse的labels是one-hot类型。具体代码用法import tensorflow as tf#...

2018-09-11 21:29:14 2738 3

原创 tf.train.exponential_decay

函数- tf.train.exponential_decay tf.train.exponential_decay(learning_rate, global_step, decay_steps, decay_rate, staircase=False, name=None) 功能:实现指数衰减学习率内部代码实现decayed_learning_rate...

2018-09-11 20:56:49 580

原创 tensorflow常见函数——clip_by_value、numpy.random.RandomState、argmax

常见简单函数用法- tf.clip_by_value()tf.clip_by_value(V, min, max)功能:截取在V,使V里面的各个元素在min和max之间具体代码用法import tensorflow as tfv = tf.constant([[1.0, 2.0, 4.0],[4.0, 5.0, 6.0]])result = tf.clip_by_v...

2018-09-11 19:54:05 332

原创 tf.nn.conv2d()方法

tf.nn.conv2d是用来实现卷积的方法 tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)除去name参数用以指定该操作的name,与方法有关的一共五个参数:第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_heigh...

2018-09-10 10:55:53 1504

原创 tensorflow中张量、常量、变量、占位符

引言从实例出发#先导入TensorFlowimport tensorflow as tf# Create TensorFlow object called hello_constanthello_constant = tf.constant('Hello World!')with tf.Session() as sess: # Run the tf.constant ...

2018-09-10 10:25:50 3720

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除