深度学习
文章平均质量分 87
别来BUG求求了
把开源的变成自己的,把自己的变成祖传的
展开
-
【Kaggle】Kaggle安装PyG | 提取自己安装的库文件
kaggle安装pyg原创 2023-03-18 15:19:06 · 1042 阅读 · 1 评论 -
【深度学习】使用PyTorch实现图像分类(简单Net/VGGNet/AlexNet+官方/自己数据集+plt/混淆矩阵展示统计结果+用训练好的模型进行分类验证)
本文将介绍如何使用PyTorch实现利用神经网络在图像数据集上进行训练和如何利用训练好的模型对图像进行分类创建文件夹,用于保存训练好的网络1. 定义模型2. 加载数据集3. 定义训练参数4.训练5.显示Loss和Acc6.验证训练的模型7.问题解决......原创 2022-06-01 23:19:28 · 6291 阅读 · 18 评论 -
【深度学习】使用kaggle提供的免费GPU在线训练模型
背景自己电脑没有GPU,只能找找网上的平台来跑模型,但是又买不起服务器,只能使用免费的平台这样子免费的在线平台各大计算平台免费GPU资源总结本文要介绍的就是第三个,虽然是国外的,但是不用翻墙就可以访问,每周免费30小时使用时长显卡信息如下:关于使用GPU加速的问题:Kaggle上使用GPU补充:有的人可能在登陆帐号以后发现没有加速器选项这是因为没有绑定手机号,绑定手机号后就可以使用了关于关闭网页代码会不会继续运行的问题Kaggle:不怕断开连接,睡觉起来看结果简单来说就原创 2022-05-08 17:40:25 · 6365 阅读 · 4 评论 -
【深度学习】AlexNet、VGG、GooLeNet、ResNet整理笔记
https://wenku.baidu.com/view/3ce7dbff7c192279168884868762caaedc33ba72.html原创 2022-04-20 18:40:12 · 6992 阅读 · 3 评论 -
【深度学习】深度学习小结01
文章目录1. 基本概念1.1 机器学习与深度学习1.2 概述2. 神经网络2.1 神经网络训练2.2 神将网络的设计原则2.2.1 过拟合与正则化2.2.2.1 过拟合2.2.2.2 正则化2.3 简单的神经网络的模型(代码示例)1. 基本概念1.1 机器学习与深度学习人工智能、机器学习、神经网络、深度学习四者关系1.2 概述人工智能人工智能是类人思考、类人行为,理性的思考、理性的行动。人工智能的基础是哲学、数学、经济学、神经科学、心理学、计算机工程、控制论、语言学。人工智能的发展,经过了原创 2022-04-08 18:58:45 · 1158 阅读 · 0 评论 -
【深度学习】正向传播、反向传播与优化函数
4.6 正向传播4.7 反向传播原创 2022-04-03 09:25:19 · 4760 阅读 · 0 评论 -
【深度学习】全连接层
4.5 全连接层全连接层是一个列向量(单个样本)。通常用于深度神经网络的后面几层,用于图像分类任务。全连接层,是每一个结点都与上一层的所有结点相连,用来把前边提取到的特征综合起来。由于其全相连的特性, 一般全连接层的参数也是最多的。全连接层(fully connected layers,FC)在整个卷积神经网络中起到“分类器”的作用。如果说卷积层、池化层和激活函数等操作是将原始数据映射到隐层特征空间的话,全连接层则起到将学到的“分布式特征表示”。映射到样本标记空间的作用。全连接层将特征提取得到的高原创 2022-03-27 09:55:57 · 17733 阅读 · 1 评论 -
【深度学习】卷积与池化
4. 神经网络网络模型:4. 1卷积4.1.1 概念卷积就是通过卷积核与输入相乘再相加。它可以获取图像的局部特征。因此卷积核也被称为滤波器。卷积时参数的计算公式:分类膨胀卷积(Dilated Convolutions)引入了膨胀率(dilation rate)。膨胀率是核中每个值之间的距离。一个膨胀率为2的3x3的核与一个5x5的核有相同的视野,唯一的区别就是3*3的核只有9个参数。膨胀卷积的好处是在相同的计算成本下,提供了更宽的可视域。膨胀卷积在实时分割领域非常流行。当原创 2022-03-21 10:10:07 · 11332 阅读 · 1 评论 -
【深度学习】PyTorch入门
1. 环境搭建1.1 安装PyTorch环境安装anaconda打开anaconda的控制台,输入conda create -n pytorch python=3.8,创建一个新的python环境安装pythorchconda install pytorch torchvision torchaudio cpuonly -c pytorch清华镜像首先输这个,更换镜像源(注意顺序,第四条一定要在最后,原因不详)conda config --add channels https:.原创 2022-03-21 11:25:44 · 2089 阅读 · 0 评论 -
【深度学习】激活函数和损失函数
4.3 激活函数作用:当神经网络中上一层的输出直接作为下一层的输入时,每层之间的关系是线性关系,即相当于f(x)=x,此时神经网络的拟合能力较弱。为了使得神经网络有更好的拟合能力,在每一层网络之间加入了激活函数(非线性)来使得不同层网络之间的关系变为非线性,从而使网络有更好的拟合能力。常用的激活函数有Sigmoid、tanh,ReLU、leaky ReLU等。除此以外还有线性激活函数如Linear。激活函数的选取十分重要,不同的激活函数有不同的特点。选取不当可能会导致梯度变得非常小,就是通常所说的原创 2022-03-26 11:21:52 · 8250 阅读 · 1 评论