![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
模型参数
文章平均质量分 71
清成尊者
这个作者很懒,什么都没留下…
展开
-
神经网络隐藏层激活函数和输出层softmax/hardmax函数理解
1:激活函数- 激活函数是神经网络中对输入数据转换的方法,通过激活函数后将输入值转化为其他信息;在神经网络的隐藏层中,激活函数负责将进入神经元的信息汇总转换为新的输出信号,传递给下一个神经元;常见的激活函数:(sigmoid、tanh、Relu)2:输出层函数输出层神经元,通过将输出值进过输出层函数转化为针对某一分类的置信概率值,在多分类问题中常见(softmax)...原创 2021-03-23 17:22:28 · 10468 阅读 · 1 评论 -
模型的过拟合问题及解决方案
模型的过拟合问题无论是机器学习或是深度学习,都是通过人为或机器的方式寻找观察变量的特征,用变量的特征表示观察值;那么在选取特征的时候,特征是否是这类变量的显著特征就是我们训练的目的和优化的方向;机器学习中我们采取人为寻找特征的方式进行特征工程训练模型,为了避免人为的主观认知,更加有效的提取观察类中的特征,我们采用了深度学习的方法,通过神经网结构让机器自动的学习训练数据的特征,推广到测试数据,以期望获得较高的泛化能力;最后达到用特征预测数据的功能;因此在训练数据集中能否提取出表征全体对象的特征就是我们学习原创 2021-03-05 13:55:09 · 3081 阅读 · 1 评论 -
关于深度学习中张量的理解
关于深度学习中张量的理解张量是什么:张量代表的是存储数据的容器,是一个数据容器,张量的维度在0-5维之间,张量是根据一共具有多少坐标轴来定义,转化现实中的变量,如字符串文本、图像、股票、视频、音频为统一的张量,以便能够容易的处理。把形状里不同维度看做一个字段(一个特征),每个变量在每个维度上找到一个特征值来表示这个变量;张量的维度数即为表示变量的特征类型数,每个变量都可以用这些特征值表示;可以用向量表示张量在各个维度上的数量;0维张量: 标量,每个数字表示一个标量;1维张量:1维数组,单列或者单原创 2021-03-01 16:50:18 · 3147 阅读 · 2 评论 -
神经网络中的Epoch、Iteration、Batchsize以及参数调整方式
神经网络中的Epoch、Iteration、Batchsize以及参数调整方式batch-size(超参数)批次的大小,神经网络经历一次迭代的需要计算的次数,神经网络经历一个迭代需要计算batchsize次;Iteration迭代,表示神经网络中参数经历一次更新即为一次迭代;一次迭代需要通过神经网络计算batchsize次,通过反向传播方法调整参数;Epoch(超参数)训练轮次,定义了学习算法再整个训练数据集中的工作次数。一个Epoch意味着训练数据集中的每个样本都有机会更新内部模型参数。Epo原创 2021-02-20 17:29:40 · 10431 阅读 · 0 评论