MindSpore后端运行类
Q:如何在训练过程中监控loss在最低的时候并保存训练参数?
A:可以自定义一个Callback。参考ModelCheckpoint的写法,此外再增加判断loss的逻辑:
class EarlyStop(Callback):
def init(self):
self.loss = None
def step_end(self, run_context):
loss = ****(get current loss)
if (self.loss == None or loss < self.loss):
self.loss = loss
# do save ckpt
Q:mindspore/tests下怎样执行单个ut用例?
A:ut用例通常需要基于debug版本的MindSpore包,官网并没有提供。可以基于源码使用sh build.sh编译,然后通过pytest指令执行,debug模式编包不依赖后端。编译选项sh build.sh -t on,用例执行可以参考tests/runtest.sh脚本。
Q:使用nn.Conv2d时,怎样获取期望大小的feature map?
A:Conv2d shape推导方法可以参考这里,Conv2d的pad_mode改成same,或者可以根据Conv2d shape推导公式自行计算pad,想要使得shape不变,一般pad为(kernel_size-1)//2。
Q:MindSpore安装完成,执行训练时发现网络性能异常,权重初始化耗时过长,怎么办?
A:可能与环境中使用了
MindSpore后端运行类
最新推荐文章于 2022-12-05 14:07:14 发布