tensorflow
文章平均质量分 55
耐耐~
这个作者很懒,什么都没留下…
展开
-
tensorflow常见函数——clip_by_value、numpy.random.RandomState、argmax
常见简单函数用法- tf.clip_by_value()tf.clip_by_value(V, min, max)功能:截取在V,使V里面的各个元素在min和max之间具体代码用法import tensorflow as tfv = tf.constant([[1.0, 2.0, 4.0],[4.0, 5.0, 6.0]])result = tf.clip_by_v...原创 2018-09-11 19:54:05 · 332 阅读 · 0 评论 -
常见函数说明
numpy.random.shuffle用途:打乱序列的顺序用法:numpy.random.shuffle([list,iterable]),返回值为None,直接更改列表的顺序样例:np.random.shuffle(参数)->np.random.shuffle([1,2,3])注意:如果参数是二维的数据,则只在第一维度上更改顺序 tensorflow.transpose用...原创 2018-09-24 11:52:15 · 2536 阅读 · 0 评论 -
为什么L1稀疏,L2平滑?
L1和L2正则常被用来解决过拟合问题。而L1正则也常被用来进行特征选择,主要原因在于L1正则化会使得较多的参数为0,从而产生稀疏解,将0对应的特征遗弃,进而用来选择特征。 但为什么L1正则会产生稀疏解呢?这里利用公式进行解释。假设只有一个参数为w,损失函数为L(w),分别加上L1正则项和L2正则项后有:假设L(w)在0处的倒数为d0,即则可以推导使用L1正则和L2正则时的导数。引入...转载 2018-09-20 21:53:31 · 9471 阅读 · 0 评论 -
L2正则化方法
在机器学习中,无论是分类还是回归,都可能存在由于特征过多而导致的过拟合问题。当然解决的办法有(1)减少特征,留取最重要的特征。(2)惩罚不重要的特征的权重。但是通常情况下,我们不知道应该惩罚哪些特征的权重取值。通过正则化方法可以防止过拟合,提高泛化能力。先来看看L2正则化方法。对于之前梯度下降讲到的损失函数来说,在代价函数后面加上一个正则化项,得到https://www.cnblogs....转载 2018-09-20 22:06:21 · 18125 阅读 · 0 评论 -
利用卷积神经网络提取特征
https://blog.csdn.net/jnulzl/article/details/51440055https://blog.csdn.net/lcy7289786/article/details/68958662转载 2018-09-20 22:10:45 · 23151 阅读 · 0 评论 -
nlp语义理解
给你一篇文章或者一个句子,人们在理解这些句子时,头脑中会进行上下文的搜索和知识联想。通常情况下,人在理解语义时头脑中会搜寻与之相关的知识。知识图谱的创始人人为,构成这个世界的是实体,而不是字符串,这从根本上改变了过去搜索的体系。语义理解其实是基于知识,概念和这些概念间的关系。人们在解答问题时,往往会讲述与这个问题相关的知识,这是语义理解的过程。这种机制完全不同于人对图像或者语音的认识。CNN在图像...转载 2018-10-02 22:19:27 · 3550 阅读 · 0 评论 -
中心化(又叫零均值化)和标准化(又叫归一化)
https://blog.csdn.net/GoodShot/article/details/80373372原创 2018-09-22 22:04:44 · 4029 阅读 · 0 评论 -
使用numpy生成one_hot
https://blog.csdn.net/zhongranxu/article/details/79332154转载 2018-09-22 22:05:54 · 2839 阅读 · 0 评论 -
tensorflow在训练的时候权重是nan,如何解决
https://blog.csdn.net/zbzb1000/article/details/65626297原创 2018-09-22 22:06:27 · 1585 阅读 · 0 评论 -
范数和机器学习中的范数
什么是范数?我们知道距离的定义是一个宽泛的概念,只要满足非负、自反、三角不等式就可以称之为距离。范数是一种强化了的距离概念,它在定义上比距离多了一条数乘的运算法则。有时候为了便于理解,我们可以把范数当作距离来理解。在数学上,范数包括向量范数和矩阵范数,向量范数表征向量空间中向量的大小,矩阵范数表征矩阵引起变化的大小。一种非严密的解释就是,对应向量范数,向量空间中的向量都是有大小的,这个大小如何...转载 2018-10-08 10:55:19 · 2389 阅读 · 1 评论 -
向量范数与矩阵范数的理解
参考:https://blog.csdn.net/jack_20/article/details/72896459https://blog.csdn.net/lqy201117/article/details/51757513转载 2018-10-08 11:10:41 · 1435 阅读 · 0 评论 -
交叉熵
信息论交叉熵是信息论中的一个概念,要想了解交叉熵的本质,需要先从最基本的概念讲起。1 信息量每件事情都有一定的发生概率,不同概率的事情发生带来的信息量是不同的。举例来说:事件A:巴西队进入了2018世界杯决赛圈。事件B:中国队进入了2018世界杯决赛圈。可以知道,B事件发生的信息量是比A事件发生的信息量要大的,因为A事件的概率明显比B事件的概率大。那么我们如何来衡量不同事件发生带来的信...转载 2019-03-18 16:47:35 · 174 阅读 · 0 评论 -
shape的各种获取、更改以及设置方式辨析
各种shape获取和shape设置以及更改1. shape获取tensor.get_shape:只有tensor才有这个方法,(相对于op来说的),用于返回该 tensor的维度,返回的是一个数组。不需要在session里面使用。x.get_shape()tensor.shape:用法同tensor.get_shape()类似。如...原创 2018-09-18 20:35:15 · 1389 阅读 · 0 评论 -
tf.train.exponential_decay
函数- tf.train.exponential_decay tf.train.exponential_decay(learning_rate, global_step, decay_steps, decay_rate, staircase=False, name=None) 功能:实现指数衰减学习率内部代码实现decayed_learning_rate...原创 2018-09-11 20:56:49 · 580 阅读 · 0 评论 -
tf.nn.sparse_softmax_cross_entropy_with_logits()与tf.nn.softmax_cross_entropy_with_logits的差别
这两个函数的用法类似sparse_softmax_cross_entropy_with_logits(_sentinel=None, labels=None, logits=None, name=None)唯一的区别是sparse的labels是int类型,而非sparse的labels是one-hot类型。具体代码用法import tensorflow as tf#...原创 2018-09-11 21:29:14 · 2738 阅读 · 3 评论 -
使用tensorflow书写逻辑回归
书写中存在的问题 mnist读取训练集 mnist.train.images mnist.train.labels读取训练集的长度 mnist.train.num_examples 函数tf.placeholder() 必须指定数据类型,shape可以不指定,这样就可以使用多种shape了 tf.Variable() 必须给定初始值tf.reduce_m...原创 2018-09-15 22:04:38 · 229 阅读 · 0 评论 -
tensorflow中张量、常量、变量、占位符
引言从实例出发#先导入TensorFlowimport tensorflow as tf# Create TensorFlow object called hello_constanthello_constant = tf.constant('Hello World!')with tf.Session() as sess: # Run the tf.constant ...原创 2018-09-10 10:25:50 · 3720 阅读 · 0 评论 -
tf.nn.conv2d()方法
tf.nn.conv2d是用来实现卷积的方法 tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)除去name参数用以指定该操作的name,与方法有关的一共五个参数:第一个参数input:指需要做卷积的输入图像,它要求是一个Tensor,具有[batch, in_heigh...原创 2018-09-10 10:55:53 · 1504 阅读 · 0 评论 -
what does tf.no_op do and tf.control_dependencies work?
- 控制依赖with tf.control_dependencies([train_step, variables_averages_op]): train_op = tf.no_op(name='train') #train_op does nothin或者train_op = tf.group(train_step, variables_averages_op)贴上st...原创 2018-09-13 12:31:54 · 1792 阅读 · 0 评论 -
tf.Variable()、tf.get_variable()
- tf.Variable()W = tf.Variable(<initial-value>, name=<optional-name>)用于生成一个初始值为initial-value的变量。必须指定初始化值-tf.get_variable()W = tf.get_variabl原创 2018-09-13 13:16:38 · 391 阅读 · 0 评论 -
记录
https://www.w3cschool.cn/tensorflow_python/tensorflow_python-wxuy2nm6.html to_int64 https://blog.csdn.net/m0_37870649/article/details/80963053 relu详解 https://blog.csdn.net/u013713117/article/details...原创 2018-09-13 13:19:23 · 119 阅读 · 0 评论 -
tf.name_scope与tf.variable_scope
1.scope是干什么的顾名思义“scope”的意思是“范围”,那么name_scope和variable_scope就是针对name所做的范围定义。典型的 TensorFlow 可以有数以千计的节点,在构建各op的过程中,命名要做到不重复,那么在编写程序的时候就要特别注意,例如“x”、“y”、”W”、”B”甚至“weight”等经常使用的变量/常量命名就很可能会重复,否则就要增加一个字符串来...原创 2018-09-13 14:35:04 · 571 阅读 · 0 评论 -
tf里面InteractivateSession()与Session()的区别
sd原创 2018-09-18 20:01:13 · 1034 阅读 · 3 评论 -
向量空间模型(Vector Space Model)的理解
https://www.cnblogs.com/hapjin/p/8687527.html转载 2018-09-23 13:22:28 · 1783 阅读 · 0 评论 -
pytorch 常用的 loss function
1 nn.L1Lossloss(Xi,yi)=∣Xi−yi∣ loss(X_{i}, y_{i}) = |X_{i}-y_{i}|loss(Xi,yi)=∣Xi−yi∣这里我们亲自做一下实验看看具体效果# torch.nn.L1Lossimport torchl1_loss_fn = torch.nn.L1Loss(reduce=False, size_average=Fal...转载 2019-03-19 11:20:51 · 9980 阅读 · 1 评论