关于李宏毅ML2021、2022HW3双Boss baseline的一步一步尝试实验记录与总结(一)

本文介绍了作者初次尝试深度学习的实践,使用了基础的CNN模型,数据集仅包含3080个标注样本,进行了基本的尺寸调整作为数据增强。模型训练中遇到过拟合问题,由于数据量小和模型简单,导致学习到的特征噪声较大。作者期望通过改进数据处理来提升模型性能,并寻求指导如何更有效地分析训练结果和调参。
摘要由CSDN通过智能技术生成

这是第一篇,每一篇都会说一些尝试

1、Base_line

步入正题,首先放出训练的图。
在这里插入图片描述
在这里插入图片描述

2、条件预设

A、数据使用情况

​ 1、完全使用labeled的数据集,没有采用unlabeled的数据集,数据量为train_set:3080,valid_set:660

​ 2、 Augment只改变了一下输入尺寸。没有使用其他任何数据增强策略

# Date_Augment
train_tfm = transforms.Compose([
    transforms.Resize((128, 128)),
    transforms.ToTensor()
])

test_tfm = transforms.Compose([
    transforms.Resize((128, 128)),
    transforms.ToTensor()
])

B、模型架构

​ 1、三个卷积层

class CNN(nn.Module):
    def __init__(self):
        super(CNN, self).__init__()
        # input image [b, 3, 128, 128]
        self.cnn_layer = nn.Sequential(
            nn.Conv2d(3, 64, 3, 1, 1),
            nn.BatchNorm2d(64),
            nn.ReLU(),
            nn.MaxPool2d(2, 2, 0),

            nn.Conv2d(64, 128, 3, 1, 1),
            nn.BatchNorm2d(128),
            nn.ReLU(),
            nn.MaxPool2d(2, 2, 0),

            nn.Conv2d(128, 256, 3, 1, 1),
            nn.BatchNorm2d(256),
            nn.ReLU(),
            nn.MaxPool2d(4, 4, 0),
        )

        self.fc_layers = nn.Sequential(
            nn.Linear(256 * 8 * 8, 256),
            nn.ReLU(),
            nn.Linear(256, 256),
            nn.ReLU(),
            nn.Linear(256, 11)
        )
    def forward(self, x):
        # input image [b, 3, 128, 128]
        x = self.cnn_layer(x)
        # 转为全链接层
        x = x.flatten(1)

        x = self.fc_layers(x)

        return x

C、训练参数设置

Batch_size_Data = 32

criterion = nn.CrossEntropyLoss()

optimizer = torch.optim.Adam(model.parameters(), lr=0.0003, weight_decay=1e-5)

3、总结

在这里插入图片描述

模型没有做任何数据处理、训练的模型也是十分得简单,所以训练出来的效果非常的差也很正常,且这次没有很好的记录下来一些数据。过拟合十分早,且数据集太少,导致学出来的噪声特征太大了。且也存在模型太简单的原因,没办法学出更好的数据。下一步准备稍微处理一下数据,看看变化。

希望各位大佬能够提点简易,最近才接触到炼丹,啥也不会,也不知道该怎么去分析这些结果,调参也不行,就知道莽数据集和模型结构。希望各位大佬能够教教我如何去更加可视化的看训练出来的数据,如何去分析数据集及训练出来的结果。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
李宏毅ML2021春季课程的第三个作业是一个关于自然语言处理任务的实践项目。这个作业涵盖了文本分类、情感分析和命名实体识别等主题。 学生们的任务是使用提供的数据集,通过实现机器学习算法,对文本进行分类和情感分析。对于命名实体识别,学生们需要利用已有的工具和技术来提取文本中的实体,例如人名、地名、组织名等。 在这个作业中,学生们需要掌握一些基本的自然语言处理技术和算法。他们需要了解常用的特征提取方法,例如词袋模型和TF-IDF。此外,学生们还需要学习基本的分类算法,如朴素贝叶斯和支持向量机。在情感分析任务中,学生们需要了解情感词典和情感分析的基本原理。 此外,学生们还需要使用Python编程语言和相关的自然语言处理工具库,如NLTK和SpaCy。通过实践项目,学生们将获得与自然语言处理相关的实际经验,并加深对机器学习模型和算法的理解。 完成这个作业需要一定的时间和努力。学生们需要仔细阅读作业要求和相关文档,并按照要求完成代码实现和实验报告。他们还需要参考课程讲义和推荐的学习资源,以加深对自然语言处理领域的理解。 总的来说,李宏毅ML2021春季课程的HW3是一个涉及自然语言处理任务的实践作业。通过完成这个作业,学生们将掌握基本的自然语言处理技术和算法,并获得与自然语言处理相关的实际经验。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

xihuanafengxx

好累好累好累!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值