自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 神经网络是怎么运行的?

神经网络是一种由多个神经元以一定的方式联结形成的网络结构,是一种仿照生物神经系统结构和功能的人工智能技术。神经网络通常由输入层输出层和若干个隐藏层组成,每个层包含若干个神经元。神经网络的基本组成单位是神经元,它模拟了生物神经元的行为特征,包括输入信号的接收、加权求和、非线性激活等过程。神经元接收来自前一层神经元的输入信号,将输入信号进行加权求和,并通过激活函数将结果转换为输出信号,并将输出信号传递给下一层神经元。

2024-06-03 17:12:03 1829

原创 第P9周:YOLOv5-Backbone模块实现

K同学啊,本次内容除了网络结构部分外,其余部分均与上周相同。(类似之前介绍过的VGG1-6)。如果效果不错的话,还可以搞一篇期刊文章出来~分享一张我自己绘制的的算法框架图,希望它可以有助于你完成本次探索~

2024-06-03 16:16:55 193

原创 第P8周:YOLOv5-C3模块实现

K同学啊,这里主要让大家先了解C3的结构,方便后续YOLOv5算法的学习。一、 前期准备1. 设置GPU如果设备上支持GPU就使用GPU,否则使用CPU。

2024-06-03 16:11:58 288

原创 第P7周:咖啡豆识别(VGG-16复现)

一、 前期准备1. 设置GPU如果设备上支持GPU就使用GPU,否则使用CPU。

2024-06-03 15:04:44 389

原创 第P6周:VGG-16算法-Pytorch实现人脸识别

VGG-16(Visual Geometry Group-16)是由牛津大学视觉几何组(Visual Geometry Group)提出的一种深度卷积神经网络架构,用于图像分类和对象识别任务。VGG-16在2014年被提出,是VGG系列中的一种。VGG-16之所以备受关注,是因为它在ImageNet图像识别竞赛中取得了很好的成绩,展示了其在大规模图像识别任务中的有效性。测试函数和训练函数大致相同,但是由于不进行梯度下降对网络权重进行更新,所以不需要传入优化器。2. 指定图片进行预测。

2024-06-03 14:32:08 524

原创 WEEK5-Pytorch实现运动鞋识别

如果设备上支持GPU就使用GPU,否则使用CPU第一步:使用pathlib.Path()函数将字符串类型的文件夹路径转换为pathlib.Path对象。●第二步:使用glob()方法获取data_dir路径下的所有文件路径,并以列表形式存储在data_paths中。●第三步:通过split()函数对data_paths中的每个文件路径执行分割操作,获得各个文件所属的类别名称,并存储在classeNames中●第四步:打印classeNames列表,显示每个文件所属的类别名称。

2024-06-01 01:40:03 1670

原创 WEEK4-猴痘病识别

通过增加网络的深度和宽度,同时增加了 Dropout 层以减少过拟合:增加了卷积层的数量和输出通道数:使用了 4 层卷积层,通道数逐渐增加,从 32 增加到 256。增加了全连接层的数量:使用了两层全连接层。添加了 Dropout 层:在全连接层之间添加了 Dropout 层,防止过拟合。

2024-05-16 22:03:20 707

原创 WEEK3-Pytorch实现天气识别

跟上一个小结一样,进行了处理,不过这次特殊的是自己导入数据集,出现了一些格式错误,需要在电脑的文件夹中进行调整,另外,对卷积层数的计算也和上一节中的一致。

2024-05-03 21:36:42 661

原创 WEEK2-CIFAR10彩色图片识别

更具体地说,损失函数loss是由模型的所有权重w经过一系列运算得到的,若某个w的requires_grads为True,则w的所有上层参数(后面层的权重w)的.grad_fn属性中就保存了对应的运算,然后在使用loss.backward()后,会一层层的反向传播计算每个w的梯度值,并保存到该w的.grad属性中。总结一下,具体来说,loss.backward() 方法会根据当前的损失值(由前向传播计算得到),沿着计算图反向传播,计算损失函数对于模型中每个参数的梯度。

2024-04-24 08:25:46 1670

原创 WEEK1-Pytorch实现mnist手写数字识别

通常情况下,在每个epoch开始时对数据进行洗牌(shuffle)是一个良好的做法,尤其是当训练数据有序排列时,这可以帮助模型更好地学习数据的分布特征,避免模型陷入局部最优点。更具体地说,损失函数loss是由模型的所有权重w经过一系列运算得到的,若某个w的requires_grads为True,则w的所有上层参数(后面层的权重w)的.grad_fn属性中就保存了对应的运算,然后在使用。函数会遍历模型的所有参数,通过内置方法截断反向传播的梯度流,再将每个参数的梯度值设为0,即上一次的梯度记录被清空。

2024-04-15 17:47:12 726 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除