- 博客(7)
- 资源 (5)
- 收藏
- 关注
转载 python异常
1.抓取已知异常:try: aexcept NameError as e: print("catch Error:",e) 2.捕获所有异常:try: aexcept: print("catch Error") 3.处理多个异常:try: f=open('1.txt') line=f.read(2) num=int(line) print(num)except IOError as e:
2020-06-11 10:30:27 89
转载 伯努利分布generator
import numpyn=1p = 0.5size = 100obs = np.random.binomial(n,p,size)如果设置n=1,size =100,则这个函数会变成重复一百次的bernouli分布,得到的是一个arrary例如:[0, 1, 1, 1, 0, 0, 1, 1, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0,0, 1, 1, 0, 1, 0, 0, 1, 0, 1, 0, 1, 0, 0, 1, 0, 0, 0, 1,.
2020-06-10 13:48:15 390
转载 机器学习中正则化项L1和L2的直观理解
正则化(Regularization)机器学习中几乎都可以看到损失函数后面会添加一个额外项,常用的额外项一般有两种,一般英文称作
2020-06-07 15:11:45 407
转载 注意力机制的基本思想和实现原理
注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型的身影。所以,了解注意力机制的工作原理对于关注深度学习技术发展的技术人员来说有很大的必要。人类的视觉注意力从注意力模型的命名方式看,很明显其借鉴了人类的注意力机制,因此,我们首先简单介绍人类视觉的选择性注意力机制。 ...
2020-06-04 11:37:41 1185
转载 理解softmax函数
做过多分类任务的同学一定都知道softmax函数。softmax函数,又称归一化指数函数。它是二分类函数sigmoid在多分类上的推广,目的是将多分类的结果以概率的形式展现出来。下图展示了softmax的计算方法:下面为大家解释一下为什么softmax是这种形式。首先,我们知道概率有两个性质:1)预测的概率为非负数;2)各种预测结果概率之和等于1。softmax就是将在负无穷到正无穷上的预测结果按照这两步转换为概率的。1)将预测结果转化为非负数 下图为y=exp(x)的图像...
2020-06-02 15:21:14 481
转载 tf.concat实例用法与图解
tf.concat的参数为:tf.concat(values, axis, name='concat')其中的axis参数并不直观。下面的代码是官网给出的示例代码。t1 = [[1, 2, 3], [4, 5, 6]]t2 = [[7, 8, 9], [10, 11, 12]]tf.concat([t1, t2], 0) # [[1, 2, 3], [4, 5, 6], [7, 8, 9], [10, 11, 12]]tf.concat([t1, t2], 1) # [[1,..
2020-06-01 15:45:28 593
转载 tf.nn.embedding_lookup()的用法
函数:tf.nn.embedding_lookup(params,ids,partition_strategy='mod',name=None,validate_indices=True,max_norm=None)参数说明:params: 表示完整的嵌入张量,或者除了第一维度之外具有相同形...
2020-06-01 13:51:24 221
模式识别-北工-李玉鑑
2018-10-14
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人