CNN搭建
文章平均质量分 52
Pγ
这个作者很懒,什么都没留下…
展开
-
【写给自己】成功搭建了ResNet识别MNIST
最后一层不需要softmax输出,直接线性输出即可,因为误差函数交叉熵自带softmax函数。(之前用了softmax输出,导致loss一直在2.4数值附近波动)ResNet,数据为2*N维的IQ信号,先用(3,2)的卷积核对它卷积,得到1维的信号,之后就用(3,1)的卷积核进行卷积。resnet最后一层不需要softmax输出。原创 2023-02-28 18:46:14 · 258 阅读 · 0 评论 -
【写给自己】搭建cnn识别IQ路调制信号
的完善下,代码终于可以成功跑通。对训练函数进行了完善,之后可以套用这个模板。这样子可以批训练,训练会快很多。同时发现数据可以包装起来。原创 2023-02-23 19:39:22 · 304 阅读 · 0 评论 -
【写给自己】搭建cnn识别IQ路调制信号
利用IQ两路,信号size为2×128,为了符合CNN处理,先变为1×2×128。数据集来自,本次主要是对论文代码复现,利用pytorch重新写一遍原文基于tensorflow和keras的网络。原创 2023-01-23 10:23:33 · 2533 阅读 · 16 评论 -
【写给自己】自定义自己的数据并调用Torch自带的ResNet网络
训练时候发现,虽然labels是list数据,但是list里面的数据是tensor类型,用torch.save()保存后可能会是乱码,于是先将list里数据转化为numpy,再用numpy.save()保存。并且因为不能用ImageFolder直接导入数据了,因此需要完成继承Dataset,再自定义自己的数据。此时数据不再是one_folder_one_label,本次用的是来自kaggle的dogs-vs-cats。之后进行训练,训练完后仅仅保存网络的参数,而不是完整的网络。训练时间大概是100分钟。原创 2022-11-24 21:26:10 · 1287 阅读 · 0 评论 -
【写给自己】记录一下第一次搭建简单CNN的过程
【写给自己】记录一下第一次搭建简单CNN的过程原创 2022-11-22 21:57:18 · 459 阅读 · 0 评论