pytorch实现 kaggle 手写数据集minst digit-recognizer 99.5%准确率 前350名
-
本项目是学校深度学习课程的作业,使用pytorch框架。在Vgg的基础上进行大改【(▽)已经完全看不出是vgg了】,并参考网络大神们的网络结构,最后得到比较满意的结果。总共提交了十次。
-
经过多次试验,发现padding的大小对最终的结果影响较大。头两次准确率都在92%左右,原因有两个。其一可能是没有保存最佳实验数据。其二可能是padding选择过大。后面多次试验,将padding设为0,实验数据比较稳定,训练的每次数据都能稳定在94%左右。最后测试集跑出来的结果为99.4%。最后两次试验将padding设为1进行测试发现训练的每次数据都能稳定在96%左右,最终测试集准确率99.5%,kaggle排名346名。
-
代码主体:
def __init__(self):
super(MyNet, self).__init__()
self.conv_unit = nn.Sequential(
nn.Conv2d(1, 32, kernel_size=3, stride=1, padding=1),
nn.ReLU(),
nn.Conv2d(32, 32, kernel_size=3, stride=1, padding=1),
nn.ReLU(),
nn.BatchNorm2d(32),
nn.MaxPool2d(2, stride=2),
nn.Dropout(0.25),
nn.Conv2d(32, 64, kernel_size=3, stride=1, padding=1),
nn.ReLU(),
nn.Conv2d(64, 64, kernel_size=3, stride=1, padding=1),
nn.ReLU(),
nn.BatchNorm2d(64),
nn.MaxPool2d(2, stride=1),
nn.Dropout(0.25),
nn.Conv2d(64, 128, kernel_size=3, stride=1, padding=1),
nn.ReLU(),
nn.Conv2d(128, 128, kernel_size=3, stride=1, padding=1),
nn.ReLU(),
nn.BatchNorm2d(128),
nn.MaxPool2d(2, stride=2),
nn.Dropout(0.25),
)
self.fc_unit = nn.Sequential(
nn.Linear(128 * 6 * 6, 512),
nn.BatchNorm1d(512),
nn.ReLU(),
nn.Linear(512, 256),
nn.ReLU(),
nn.BatchNorm1d(256),
nn.Dropout(0.25),
nn.Linear(256, 10)
)
def forward(self, x):
x = self.conv_unit(x)
x = x.view(x.size(0), -1)
x = self.fc_unit(x)
return x
- 感谢观看,(▽)。