1.ValueError: Unknown layer: Attention,无法识别 attention 层。
2.TypeError: init() missing 1 required positional argument: '***',加载参数有误。
针对问题 1 ,需要在 load_model 前参考如下修改:
from *** import ***_Attention
my_Attention = Attention()
model = load_model('*** model.h5', custom_objects={'*** Attention': my_Attention})
针对问题 2,两个思路,第一是修改 attention 层的 __init__() 函数,给定初值。第二是在 attention 的 class 之中添加 get_config() 函数。
思路一:
def __init__(self, attention_size=128, **kwargs):
self.attention_size = attention_size
super(Hierarchy_Attention, self).__init__(**kwargs)
思路二:
def get_config(self):
config = {'attention_size': self.attention_size}
base_config = super(Hierarchy_Attention, self).get_config()
return dict(list(base_config.items()) + list(config.items()))
参考链接,Keras 报错解决记录,用keras调用load_model时报错ValueError: Unknown Layer:LayerName,can not load_model() or load_from_json() if my model contains my own Layer #8612,keras/keras/layers/convolutional.py。

1733

被折叠的 条评论
为什么被折叠?



