深度学习
I'mVeryLow
一旦匿名了,人性就暴露了。
展开
-
图床6
原创 2020-06-26 13:35:43 · 319 阅读 · 0 评论 -
numpy指定概率随机取值
python指定概率随机取值参考如下:下面是利用 np.random.choice()指定概率取样的例子:import numpy as np np.random.seed(0)p =([0.1, 0.0, 0.7, 0.2]value= np.random.choice([0, 1, 12, 34], p = p)12这意味着你可以以下面的概率分布取到index所对应的数值:P(index=0)=0.1,P(index=1)=0.0,P(index=12)=0.7,P(index=34)原创 2020-06-20 16:05:42 · 3983 阅读 · 2 评论 -
图床5
原创 2020-06-17 22:45:10 · 184 阅读 · 0 评论 -
图床4
原创 2020-06-16 11:09:08 · 164 阅读 · 0 评论 -
我的图床3
原创 2020-06-08 09:55:11 · 158 阅读 · 0 评论 -
我的图床2
原创 2020-06-05 20:59:46 · 172 阅读 · 0 评论 -
我的图传
原创 2020-05-23 22:34:31 · 523 阅读 · 0 评论 -
NumPy数组的维度
原创 2019-12-05 22:00:32 · 252 阅读 · 0 评论 -
为什么输入(X)和它们对应的权重(W)的乘积和偏差(b)之和,并将激活函数应用于其输出
问题是,为什么我们不能在不激活输入信号的情况下完成此操作呢?如果我们不运用激活函数的话,则输出信号将仅仅是一个简单的线性函数。线性函数一个一级多项式。现如今,线性方程是很容易解决的,但是它们的复杂性有限,并且从数据中学习复杂函数映射的能力更小。一个没有激活函数的神经网络将只不过是一个线性回归模型(Linear regression Model)罢了,它功率有限,并且大多数情况下执行得并不好。我们...原创 2019-09-27 17:14:18 · 990 阅读 · 1 评论 -
Softmax和SVM、卷积神经网络的区别
目前解决图像分类问题,比较流行的方法是卷积神经网络\color{red}{卷积神经网络}卷积神经网络上。这种方法主要有两部分组成:一个是评分函数(scorefunction)\color{red}{评分函数(score function)}评分函数(scorefunction),它是原始图像数据到类别分值的映射。另一个是损失函数(lossfunction)\color{red}{损失函数(loss...原创 2019-09-27 11:26:28 · 2625 阅读 · 0 评论 -
卷积神经网络的问题
输入的shape:( 7* 7 *3)RGB : 3通道 所以为3层 第一层R ;第二层G;如果偏移量(Stride)为1,产生的结果的个数偏大,计算内积的计算量大;如果偏移量过大,有些特征就会被忽略;引入Pad:图中偏移量为2,使得1、2重复计算,边缘的数值只计算了一次,故向外四周填充0(填充的0是对提取特征是没有意思的);Pad为n,就向四周填充n圈0;filter是 w0或。。。。wj...原创 2019-09-23 21:25:36 · 349 阅读 · 0 评论 -
mxnet
1.从二维矩阵中每行选出特定的index对应的位置的值from mxnet import ndin_num=5ex_num=[0,2,1,3,1]p=nd.random.randint(5, 100,shape=(in_num,6))p,p.pick(nd.array(ex_num))#参数必须为NDArray 类型( [[81 26 9 85 90 37] [95 96 68...原创 2019-09-21 19:48:03 · 188 阅读 · 0 评论 -
matplotlib:折线图 水平条形图 饼状图 柱形图 散点图 三维图
导包from matplotlib import pyplot as pltfrom mxnet import nd,gluon;x , y 接收的类型为list 或 numpy;plt.plot可以写多个,那就显示在同一个图上了1. 折线图def print(x,y,xlabel='x/y_val',ylabel='x/y_label',title='TEST 2019/9/17'...原创 2019-09-17 18:54:40 · 254 阅读 · 0 评论 -
神经网络:激活函数、过拟合、Drop-out、权重初始化
神经元(权重参数w)的个数就是权重参数w的个数激活函数:1.sigmod函数(已废弃)迭代次数到了一定值导数趋于0,出现梯度消失的问题,这样w-w0*w中的w0会趋于0使得w的值基本不变,这样的迭代没有意义。2.ReLu函数(受欢迎):没有梯度消失的问题,求导简单,使得梯度下降更加有意义。过拟合:神经网络要泛化能力强才有用,主要看实际的用途,不是看训练的时候达到100%,图1出现过...原创 2019-09-14 20:03:15 · 534 阅读 · 0 评论 -
线性回归的简洁实现(Gluon训练模型)
目的:通过多次迭代,找到最符合的w和b使得与特征值通过计算来求得最接近标签的值1. 构造特征值(1000,2),标签(1000,1)example_num=1000;input_num=2;batch_size=10;features=nd.random.normal(scale=1,shape=(example_num,input_num));true_w=[1.2,2.1];t...原创 2019-09-08 17:18:55 · 309 阅读 · 0 评论 -
softmax分类器、和SVM比较 和学习率
softmax分类器y代表的可以是0到1的概率值,x为负无穷到正无穷,或是以0.5为分界线,上面和下面分类别(二分类类别)。学习率 : learning rate: w-=(Δw * LR)...原创 2019-09-07 22:45:33 · 990 阅读 · 0 评论