训练的目的是为了迭代出好的参数(自动)、超参数(人工)。在训练的过程中需要将注意力放到三个要素train_loss, train_acc, test_acc。如果能动态的观察训练过程中三个要素的变化,从宏观视角更本质的把握训练过程,则更利于超参数(人工)的选取和debug训练过程中出现的问题。
在实际中以epoch(训练轮数)横坐标,上面三个值为纵坐标进行描点画图,这里面涉及到两个通用的类Animator、Accumulator,二者是配合使用,下面具体分析这两个类的代码细节和用法。
Accumulator
class Accumulator:
"""For accumulating sums over `n` variables."""
def __init__(self, n):
"""Defined in :numref:`sec_softmax_scratch`"""
self.data = [0.0] * n
def add(self, *args):
self.data = [a + float(b) for a, b in zip(self.data, args)]
def reset(self):
self.data = [0.0] * len(self.data)
def __getitem__(self, idx):
return self.data[idx]
注意:这里add在代入参数的时候,要写成metric.add(1, 2)形式,不能写成metric.add((1, 2)).
In [26]: metric = Accumulator(2)
In [27]: metric
Out[27]: <__main__.Accumulator at 0x7f2e4827f820>
In [28]: metric[0]
Out[41]: 0.0
metric[1]
Out[44]: 0.0
In [29]: metric.add(1, 2)
metric[0]
Out[46]: 1.0
metric[1]
Out[47]: 2.0
zip() 函数用于将可迭