PAW预测下一步设想

1、快速训练,通过可视化获知最重要的那些特征,了解获得这些特征的方法,即什么样的图片训练了能够最大化模型的提升率,而这些图片有什么特征,是在什么参数下获取的,就是用最少的数据,最小的计算量,最快得dec

2、stateful lstm,(A non-stateful model, on the other hand, will use an initial zero state every time it processes a batch,  如果将整道焊缝的图像都纳入到batch中,应该就不能用stateful的模型,如果只是部分的纳入,比如以5张图片为一个batch,应该考虑这一点。

两种可能stateful lstm的用法:

  • You want to train on split sequences of data because these are very long and it would not be practical to train on their whole length.
  • On prediction time, you want to retrieve the output for each time point in the sequence, not just at the end (either because you want to feed it back into the network or because your application needs it). I personally do that in the models that I export for later integration (which are "copies" of the training model with batch size of 1).

一种方法是batch size = 为整个800张左右的图片,采用non-stateful model.

另一种方法是batch size 设置尽量打,比如400张图片,non-stateful model和stateful model交替使用

many to many 的序列模型还是many to one并且输出中间过程,需要都过模型的实际计算效果来评判。

3、通过比对不同模型的窗口滑动的大小可以来比对一下什么样的窗口大小下准确率最大,最好可以自动确定batch size的大小,通过变batch size从而来最优化,是否可以统计整个过程中batch size都是自动优化成什么样子的,进行一个统计分析,和之前的对比,验证最佳的batch size


4、与词汇预测的相似之处,可以运用类似的窗口滑动的方法,区别在于数据的类型不同,词汇的数据是连续的不间断的,只有一组数据。

5、同一张图片可以多append几次以来实现……

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值