![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
自动求导
奥特曼丶毕健旗
希望碰到挚友。
展开
-
发现!L2正则化之美 (Implemented by Python+Numpy)
发现:L2正则化之美深度神经网络何谓神经网络何谓深度MSE损失函数公式L2正则惩罚项公式Boston房价预测第一步:导入数据与数据处理第二步:Python + Numpy 构造神经网络框架第三步:观察美训练中的损失美测试中的美重磅!参数w1在训练过程中的变化美:本文旨在发现神经网络中,对模型的参数进行L2正则化惩罚后,模型在预测阶段的表现产生的变化。深度神经网络何谓神经网络神经网络由多层感知机演化而来。多层神经网络为了使模型学习到非线性的数据关系(映射),在层与层之间添加的非线性激活函数,提原创 2020-08-09 14:36:43 · 893 阅读 · 2 评论 -
Pytorch官方指南(一) 翻译版本
Pytorch官方指南(一) 翻译版本自动求导机制(Autograd mechanics)倒序逐层移除子图(Excluding subgraphs from backward)自动求导技术如何编码历史(How autograd encodes the history)广播机制(BROADCASTING SEMANTICS)Numpy原本的广播含义更新后兼容性自动求导机制(Autograd mec...原创 2020-01-28 17:14:02 · 279 阅读 · 0 评论