[原文]http://mxnet.incubator.apache.org/versions/master/tutorials/gluon/naming.html
自用记录
Gluon参数和模块命名教程
在gluon里,每个参数和块都有一个名字(和前缀)。参数名可以由用户指定,block名也可以由用户指定,也可以自动创建。
本教程中,我们将讨论命名方面的最佳实践。首先,import MXNet和Gluon
from __future__ import print_function
import mxnet as mx
from mxnet import gluon
Blocks命名
在创建block时,可以指定一个前缀给它:
mydense = gluon.nn.Dense(100, prefix='mydense_')
print(mydense.prefix)
mydense_
若没有指定前缀,gluon会自动生成一个前缀
dense0 = gluon.nn.Dense(100)
print(dense0.prefix)
dense0_
当你创建更多同类块时,它们将递增后缀命名,以避免冲突:
dense1 = gluon.nn.Dense(100)
print(dense1.prefix)
dense1_
参数命名
blocks中的参数将用过将block的前缀添加到参数的名称来命名:
print(dense0.collect_params())
dense0_ (
Parameter dense0_weight (shape=(100, 0), dtype=<type 'numpy.float32'>)
Parameter dense0_bias (shape=(100,), dtype=<type 'numpy.float32'>)
)
名称空间
为了管理嵌套block的名称,每个块附加有一个name_scope(名称空间)。在name_scope中创建的block都会在其名称前加上父block的名称。
我们将定义一个简单的神经网络来说明这点:
class Model(gluon.Block):
def __init__(self, **kwargs):
super(Model, self).__init__(**kwargs)
with self.name_scope():
self.dense0 = gluon.nn.Dense(20)
self.dense1 = gluon.nn.Dense(20)
self.mydense = gluon.nn.Dense(20, prefix='mydense_')
def forward(self, x):
x = mx.nd.relu(self.dense0(x))
x = mx.nd.relu(self.dense1(x))
return mx.nd.relu(self.mydense(x))
现在实例化这个神经网络
-
注意:
model0.dense0
的名称是model0_dense0_
而非dense0_
-
注意:我们指定
model.mydense
的前缀为mydense_
,它的父类前缀会自动生成并添加到前面变成model0_mydense_
这里的名称前缀和变量名model0没有关系,这里就算把model0换成其他变量名比如net,前缀还是model?,? 表示这是一个递增的数字,这里的名称前缀和
class Model
有关 若将类名Model换成Hodel,那么后面的前缀都会变成 hodel?
model0 = Model()
model0.initialize()
model0(mx.nd.zeros((1, 20)))
print(model0.prefix)
print(model0.dense0.prefix)
print(model0.dense1.prefix)
print(model0.mydense.prefix)
model0_
model0_dense0_
model0_dense1_
model0_mydense_
若我们再次实例化Model
,在Dense
前会生成一个不同的名称。
- 注意:
model1.dense0
的名称依然是dense0_
而非dense2_
,遵循之前在model0
中创建的dense层的命名规则。这是因为每个model的命名空间是相互独立
model1 = Model()
print(model1.prefix)
print(model1.dense0.prefix)
print(model1.dense1.prefix)
print(model1.mydense.prefix)
model1_
model1_dense0_
model1_dense1_
model1_mydense_
建议手动为顶层的model指定一个前缀,即model = Model(prefix=‘mymodel_’),以避免命名时可能出现的混淆。
相同的规则同样适用于像Sequential这类容器block.name_scope
既可以在__init__
内使用,也可以在__init__
外使用:
注意:这里
Sequential
也有参数prefix,是可以自己指定名称的,不指定的话就叫Sequential
net = gluon.nn.Sequential()
with net.name_scope():
net.add(gluon.nn.Dense(20))
net.add(gluon.nn.Dense(20))
print(net.prefix)
print(net[0].prefix)
print(net[1].prefix)
sequential0_
sequential0_dense0_
sequential0_dense1_
gluon.model_zoo
也一样
net = gluon.nn.Sequential()
with net.name_scope():
net.add(gluon.model_zoo.vision.alexnet(pretrained=True))
net.add(gluon.model_zoo.vision.alexnet(pretrained=True))
print(net.prefix, net[0].prefix, net[1].prefix)
sequential1_ sequential1_alexnet0_ sequential1_alexnet1_
保存和载入
由于model0和model1有不同的前缀,所以它们的参数是有不同名字的:
print(model0.collect_params(), '\n')
print(model1.collect_params())
model0_ (
Parameter model0_dense0_weight (shape=(20L, 20L), dtype=<type 'numpy.float32'>)
Parameter model0_dense0_bias (shape=(20L,), dtype=<type 'numpy.float32'>)
Parameter model0_dense1_weight (shape=(20L, 20L), dtype=<type 'numpy.float32'>)
Parameter model0_dense1_bias (shape=(20L,), dtype=<type 'numpy.float32'>)
Parameter model0_mydense_weight (shape=(20L, 20L), dtype=<type 'numpy.float32'>)
Parameter model0_mydense_bias (shape=(20L,), dtype=<type 'numpy.float32'>)
)
model1_ (
Parameter model1_dense0_weight (shape=(20, 0), dtype=<type 'numpy.float32'>)
Parameter model1_dense0_bias (shape=(20,), dtype=<type 'numpy.float32'>)
Parameter model1_dense1_weight (shape=(20, 0), dtype=<type 'numpy.float32'>)
Parameter model1_dense1_bias (shape=(20,), dtype=<type 'numpy.float32'>)
Parameter model1_mydense_weight (shape=(20, 0), dtype=<type 'numpy.float32'>)
Parameter model1_mydense_bias (shape=(20,), dtype=<type 'numpy.float32'>)
)
若你尝试将model0的参数载入到model1中,你将会得到一个名称不匹配的错误
model0.collect_params().save('model.params')
try:
model1.collect_params().load('model.params', mx.cpu())
except Exception as e:
print(e)
Parameter 'model1_dense0_weight' is missing in file 'model.params', which contains parameters: 'model0_mydense_weight', 'model0_dense1_bias', 'model0_dense1_weight', 'model0_dense0_weight', 'model0_dense0_bias', 'model0_mydense_bias'. Please make sure source and target networks have the same prefix.
为了解决这个问题,我们使用save_parameters
/load_parameters
而不是 collect_params
和save
/load
. save_parameters
。使用模型结构而非参数名称来匹配参数。
model0.save_parameters('model.params')
model1.load_parameters('model.params')
print(mx.nd.load('model.params').keys())
['dense0.bias', 'mydense.bias', 'dense1.bias', 'dense1.weight', 'dense0.weight', 'mydense.weight']
替换网络中的block并进行fine-turning
有时需要加载一些预训练的模型,并替换其中某些block并进行fine-turning。
For example, the alexnet in model zoo has 1000 output dimensions, but maybe you only have 100 classes in your application.
例如,alexnet有1000个输出维度但你只有100类。
我们首先载入预训练的AlexNet
- 在Gluon Model Zoo,所有图像分类模型的格式都是特征提取层叫
features
,输出层叫output
. - 注意到输出层是一个dense block,有1000个维度的输出
alexnet = gluon.model_zoo.vision.alexnet(pretrained=True)
print(alexnet.output)
print(alexnet.output.prefix)
Dense(4096 -> 1000, linear)
alexnet0_dense2_
改变输出为100维,使用一个新block替换它
with alexnet.name_scope():
alexnet.output = gluon.nn.Dense(100)
alexnet.output.initialize()
print(alexnet.output)
print(alexnet.output.prefix)
Dense(None -> 100, linear)
alexnet0_dense3_