1、快速训练,通过可视化获知最重要的那些特征,了解获得这些特征的方法,即什么样的图片训练了能够最大化模型的提升率,而这些图片有什么特征,是在什么参数下获取的,就是用最少的数据,最小的计算量,最快得dec
2、stateful lstm,(A non-stateful model, on the other hand, will use an initial zero state every time it processes a batch, ) 如果将整道焊缝的图像都纳入到batch中,应该就不能用stateful的模型,如果只是部分的纳入,比如以5张图片为一个batch,应该考虑这一点。
两种可能stateful lstm的用法:
- You want to train on split sequences of data because these are very long and it would not be practical to train on their whole length.
- On prediction time, you want to retrieve the output for each time point in the sequence, not just at the end (either because you want to feed it back into the network or because your application needs it). I personally do that in the models that I export for later integration (which are "copies" of the training model with batch size of 1).
一种方法是batch size = 为整个800张左右的图片,采用non-stateful model.
另一种方法是batch size 设置尽量打,比如400张图片,non-stateful model和stateful model交替使用
many to many 的序列模型还是many to one并且输出中间过程,需要都过模型的实际计算效果来评判。
3、通过比对不同模型的窗口滑动的大小可以来比对一下什么样的窗口大小下准确率最大,最好可以自动确定batch size的大小,通过变batch size从而来最优化,是否可以统计整个过程中batch size都是自动优化成什么样子的,进行一个统计分析,和之前的对比,验证最佳的batch size
4、与词汇预测的相似之处,可以运用类似的窗口滑动的方法,区别在于数据的类型不同,词汇的数据是连续的不间断的,只有一组数据。
5、同一张图片可以多append几次以来实现……