深度强化学习技术与车间调度
文章平均质量分 70
吾心即宇宙-THU
学术菜鸟一枚。
展开
-
跟李沐学深度学习-softmax回归
softmax回归分类和回归的区别无校验比例校验比例交叉熵常见损失函数均方误差 L2 loss绝对值损失L1 loss鲁棒损失分类和回归的区别回归:估计一个连续值分类:分类预测一个离散类别无校验比例在分类时不关心分类的值,关心对正确类别的置信度。就是要使得分类正确类别能够远大于分类出其他类别。使得预测这个分类可信。校验比例希望能将置信度都规范到一个区间内,方便后面的操作。就引入了softmax操作,就是将每个置信度都变为指数,保证是非负值。然后再做归一化。那么就可以把一个类别的比例作为概率原创 2022-03-27 12:21:03 · 1443 阅读 · 1 评论 -
跟李沐学习深度学习-线性回归和基础优化函数
线性回归和基础优化函数线性回归背景简化模型向量版本单层神经网络损失函数训练数据的采集参数学习线性函数的显示解总结基础优化函数梯度下降detachyieldepochwith关键字线性回归背景李沐老师做了一个背景介绍,说美国买房需要竞价。所以根据别人的出价,那么我自己出多少合适。就需要预测价格的走势。这就需要线性回归。简化模型设置一个简化的模型说房价和房间数,卫生间数,居住面积有关。那么线性回归的目的就是需要求出每个x前面的w参数和b常数。向量版本拓展到一个n维的向量。那么线性模型就变成了向原创 2022-03-27 11:28:27 · 1753 阅读 · 0 评论 -
跟着李沐学深度学习-矩阵计算-detach,backward函数
向量的导数如果y是标量x是标量,结果就是标量。如果y是标量x是相邻则求导是x维度相同的向量。如果y是向量x是标量,那么求出来的导数和y维度相同。如果y和x是向量,则求导是一个矩阵将向量拓展到矩阵这张图的关系很好的表明了如果x和y做导数,拓展到矩阵求导上是什么形式。如果两个矩阵做梯度,那么梯度就是四维张量。计算图...原创 2022-03-26 16:52:37 · 1630 阅读 · 0 评论