![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
pytorch
文章平均质量分 70
小小城序员
退了退了,准备考研了!!
展开
-
深度学习基础--模型构造
深度学习基础–模型构造最近在阅读一本书籍–Dive-into-DL-Pytorch(动手学深度学习),链接:https://github.com/newmonkey/Dive-into-DL-PyTorch,自身觉得受益匪浅,在此记录下自己的学习历程。本篇主要记录模型构造的几种方法:Module类(基类)Sequential类ModuleList类ModuleDict类我们以MLP多层感知机(含单隐藏层与两个全连接层)为例,构造模型。首先导入需要的包import torchfrom原创 2021-10-21 23:08:08 · 652 阅读 · 1 评论 -
深度学习基础--拟合问题、权重衰减与倒置丢弃法
深度学习基础–拟合问题、权重衰减与倒置丢弃法最近在阅读一本书籍–Dive-into-DL-Pytorch(动手学深度学习),链接:https://github.com/newmonkey/Dive-into-DL-PyTorch,自身觉得受益匪浅,在此记录下自己的学习历程。本篇主要记录拟合问题(欠拟合与过拟合)以及应对的办法(权重衰减与倒置丢弃法):拟合问题(欠拟合与过拟合)权重衰减倒置丢弃法拟合问题(欠拟合与过拟合)开始前先介绍欠拟合与过拟合的问题:先了解一下训练误差(training原创 2021-10-17 22:08:44 · 644 阅读 · 1 评论 -
深度学习基础--激活函数
深度学习基础–激活函数最近在阅读一本书籍–Dive-into-DL-Pytorch(动手学深度学习),链接:https://github.com/newmonkey/Dive-into-DL-PyTorch,自身觉得受益匪浅,在此记录下自己的学习历程。本篇主要记录关于三种常见的激活函数的知识。常见的激活函数ReLU函数sigmoid函数tanh函数ReLU函数ReLU(rectified linear unit)函数提供了一个很简单的非线性变化。ReLU函数只保留正数,并将负数元素清零。原创 2021-10-10 17:04:09 · 1022 阅读 · 2 评论 -
深度学习基础--多层感知机(MLP)
深度学习基础–多层感知机(MLP)最近在阅读一本书籍–Dive-into-DL-Pytorch(动手学深度学习),链接:https://github.com/newmonkey/Dive-into-DL-PyTorch,自身觉得受益匪浅,在此记录下自己的学习历程。本篇主要记录关于多层感知机(multilayer perceptron, MLP)的知识。多层感知机是在单层神经网络的基础上引入一个或多个隐藏层。以单层神经网路SOFTMAX回归为例子。给定一个小批量样本X,假设输出层的softmax回归的权原创 2021-10-09 20:57:45 · 2172 阅读 · 0 评论 -
深度学习基础--SOFTMAX回归(单层神经网络)
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar原创 2021-10-05 22:50:13 · 1316 阅读 · 0 评论 -
深度学习基础--线性回归(单层神经网络)
深度学习学习历程–线性回归(单层神经网络)最近在阅读一本书籍–Dive-into-DL-Pytorch,自身觉得受益匪浅,在此记录下自己的学习历程。本篇主要记录关于线性回归的知识。原创 2021-10-02 00:44:17 · 875 阅读 · 0 评论