![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
古月居 PyTorch入门:一起从零搭建神经网络
甜橙の学习笔记
勿在浮沙筑高台
展开
-
古月居 PyTorch入门:一起从零搭建神经网络一、PyTorch环境搭建
1、什么是神经网络:人工神经网络是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。当前神经网络已经能够在图像处理等领域占据大半江山,包括自动驾驶、语音识别、人脸识别等等。神经网络能够通过庞大的数据集输入经过合理的网络搭建给用户输出一个数据集的分类。本系列的课程是神经网络的基础教学,能够带大家学习了解搭建神经网络以及使用神经网络进行静物分类识别的一个过程。当前在深度学习领域中,最主流的神经网络框架有三种,谷歌的tensorflow,Facebook的PyTorch,以及百度的padd原创 2021-01-11 12:30:09 · 372 阅读 · 0 评论 -
古月居 PyTorch入门:一起从零搭建神经网络二、PyTorch基础知识
PyTorch入门:一起从零搭建神经网络二、PyTorch基础知识1、神经网络结构一个经典的神经网络结构包含了三个层,分别是输入层、输出层、中间层(隐藏层)。设计一个神经网络时,输入输出层的节点数往往是固定的,而中间层可以自由指定。输入数据经过一层或者多层的隐藏层训练得出训练结果输出。2、激活函数作用什么是激活函数:所谓激活函数,就是在人工神经网络的神经元上运行的函数,负责将神经元的输入映射到输出端。常用的激活函数有sigmoid函数,tanh函数,ReLU函数。图像分别为:激活函数的作用原创 2021-01-11 13:37:18 · 222 阅读 · 0 评论 -
古月居 PyTorch入门:一起从零搭建神经网络 三、快速搭建一个简单的神经网络
三、快速搭建一个神经网络1、构建数据点集在我们搭建神经网络之前,我们需要明确我们的数据集,明确我们的训练的目的是什么。一些数据集:制造一个加入了一些噪声的y=x*x的数据点集:1.1打开pycharm:2、搭建简单的神经网络3、训练数据集分析结果...原创 2021-01-11 21:17:00 · 478 阅读 · 0 评论 -
古月居 PyTorch入门:一起从零搭建神经网络 四、PyTorch车牌字符识别项目一
古月居 PyTorch入门:一起从零搭建神经网络 四、PyTorch车牌字符识别项目一一、如何寻找数据集:首先要考虑的就是项目的需求特征,其次是训练的效率等问题。二、代码教程:代码会一起上传,留个坑。附:小白老师古月居博客...原创 2021-03-09 16:30:30 · 462 阅读 · 0 评论 -
古月居 PyTorch入门:一起从零搭建神经网络 五、PyTorch车牌字符识别项目二
古月居 PyTorch入门:一起从零搭建神经网络 五、PyTorch车牌字符识别项目二1、CNN卷积神经网络介绍:卷积神经网络是一类包含卷积计算,且具有深度结构的前馈神经网络。卷积神经网络的输入层可以处理多维数据,因此卷积神经网络在计算机视觉领域应用广泛。2、CNN卷积神经网络识别分类原理:卷积神经网络中涉及三个重要的部分,分别是卷积层,池化层,全连接层。卷积层的主要作用就是对输入的数据进行特征提取,池化层对特征进行压缩,全连接层利用高密度的特征信息进行打开,输出为我们提前制定好数量的分类结果。原创 2021-03-09 17:11:59 · 331 阅读 · 0 评论 -
古月居 PyTorch入门:一起从零搭建神经网络 六、PyTorch车牌字符识别项目三
古月居 PyTorch入门:一起从零搭建神经网络 六、PyTorch车牌字符识别项目三1、数据集训练:神经网络的训练过程其本质上是寻找数据集之间的联系或者因果关系,这样才能把数据集划分成各具特征的类别。2、代码教程:...原创 2021-03-10 08:54:03 · 229 阅读 · 0 评论 -
古月居 PyTorch入门:一起从零搭建神经网络 七、PyTorch车牌字符识别项目四
古月居 PyTorch入门:一起从零搭建神经网络 七、PyTorch车牌字符识别项目四1、如何把训练好的模型打包成文件我们在搭建好数据集和神经网络之后,每次运行如果都提前训练,那将会花费相当长的时间。所以我们就需要将训练好的模型参数进行保存。这样做的好处是不用每次都训练,可以直接调用训练好的文件包。对于模型的保存,一共有两种方式,一个是保存整个模型,另一种是只保存模型的参数(常用)。函数解释:代码:torch.save(cnn,'CNN.pth')#保存模型torch.save(cnn.st原创 2021-03-10 09:26:47 · 351 阅读 · 0 评论