![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
刘二大人
文章平均质量分 50
勿分心111222
这个作者很懒,什么都没留下…
展开
-
b站刘二大人----逻辑斯蒂回归
特点:属于sigmoid函数之一,由于logistic函数是sigmoid函数中最出名的函数,故很多时候称logistic函数为sigmoid函数。如果要将激活函数改成ReLu函数,则只需改下面两个地方,改第二个地方是因为ReLu函数值可能为0,如果要算交叉熵的话会涉及log0,所以输入y时需要改成sigmoid函数。数据集方面:数据的输入y_data由2.0,4.0,6.0变成0,0,1;---sigmoid函数:①增函数②函数值在0到1之间③饱和函数。作用:将函数值映射到0-1之间。原创 2022-11-13 11:25:57 · 147 阅读 · 0 评论 -
b站刘二大人-----04反向传播算法
s每调用一次loss函数就动态构建一次计算图,每执行一次backward函数就释放计算图,这也是pytorch的核心竞争力之一。张量tensor可以存标量,向量,矩阵以及高维数据。tensor其实是一个类,它包含数据data和梯度grad。原创 2022-11-10 22:24:02 · 293 阅读 · 0 评论 -
b站刘二大人----梯度下降法
其存在局部最优点。梯度下降法是无法避免局部最优的,但是为什么常用梯度下降法呢,因为在深度学习中局部最优点是比较少,而深度学习更需要解决的是鞍点问题。可以认为梯度为0的点.如下所示。当梯度下降法遇到鞍点的时候,它是无法迭代的。转载 2022-11-10 18:45:19 · 149 阅读 · 0 评论 -
b站刘二大人----02线性模型
由图可知,当权值w取2.0的时候,整个损失函数loss的值最小。反向传播的核心是计算图。MSE 平均平方误差。原创 2022-11-10 17:29:00 · 460 阅读 · 0 评论