今天心情相对于前几天好多了。
上一个博客,是用VGG网络。载入别人模型。然后识别自己的图片。
这一篇!
训练ASL数据集。24分类。
先看文件目录:
三个文件。 最后一个是训练。第一个是数据集的处理。 中间的那个是用来测试的。
使用:第一:把trainvgg.py 里面数据集换成自己的。这里注意开始的分类我是24分类。A、B、C、............
第二:开始 训练,结束后就可以看到效果。
第三:如果想自己拍一张照片验证的话,就把model里面的vgg.ckpt-9900.meta(这里根据自己情况添加) 替换成进predict.py 代码里对应的位置。
其他文件里面的东西,不用管。
这里面没有上传ASL数据集。这个数据集太大了。自己在网上找吧。找不到再联系我吧。
下一个目标。试试resnet.
哪里有争议.可以留言一起讨论。
代码太长了。我还是以文件形式上传。
https://download.csdn.net/download/qq_40979622/11086401
用 American Sign Language(ASL)手势图像数据集,该数据集每个手势分别由5个人在不同的背景下完成,代表A到Z字母,每个手势样本有1000张图片,RGB和深度图像各500张,总共有24×5×1000=120000张图像(由于字母j和z的手势是动态的,所以这里我们不考虑)
代码链接: 数据集链接
加我QQ 410834611(伸手党勿加)
数据集链接